Red de Conectividad con TouchGraph


Ya estamos a mediados de enero y hay que empezar con los trabajos para la facultad y en mi caso tengo que realizar la tercera parte del TP (Trabajo Práctico) de la cátedra DIED que en un principio les comente y expuse las cosas malas del cursado de la misma, en éste TP tenemos que seguir agregandole funcionalidad a la aplicación principal y comentandoles en forma resumida, tenemos que a partir de un texto con varios tags al estilo html los cuales delimitan los vinculos de una sección a otra tenemos que armar una red de grafos que lo represente utilizando Java.

Y bueno en el TP nos mencionan que como guía para realizar la interfaz debemos adoptar el formato de salida de la Herramienta TouchGraph, la cual no la conocia y esta muy buena ya que se puede obtener la red de conectividad de un sitio web o de alguna búsqueda como las que realizamos en Google.

Para probar la herramienta deben ir a éste sitio y hacer click en el boton Graph It! donde accederan a la herramienta y luego donde dice Keywords o URL ingresan un sitio o lo que sea y le dan en Go y listo, se les generara una red de grafos de sitios interconectados.

Acá les dejo una captura de la salida:

grafo-terabytes-libres1

Y como bonus para los que estén interesados en el TP acá les dejo los enunciados de las tres partes:

TP DIED 2008 TP 1 (También deben bajar la interfaz aquí)

TP DIED 2008 TP 2

TP DIED 2008 TP 3

Anuncios

Tráfico en la red: Versión animada


Les dejo un video que encontre en youtube en el cual explican de una manera divertidad y animada como se gestiona el tráfico en la red cuando hacemos click en un enlace o accedemos a un sitio web.

¿Cuánta información hay en la red?


Desde e-rgonomic vemos un muy buen post que habla sobre como la red se está llenando cada vez mas de información y como evolucionó la red hasta el día en como la conocemos hoy, a continuación les dejo un extracto:

  • La cantidad de información creada en 2007 estuvo a punto de sobrepasar, por primera vez, la capacidad física de almacenamiento disponible.
  • La cantidad de información digitalizada fue 3 millones de veces mayor que la de todos los libros escritos.
  • En 2006, la cantidad de información digital creada, capturada y replicada fue de 161 exabytes o 161 billones de gigabytes. Esto es más de lo generado en los 5000 años anteriores.
  • Se generan 45 gigabytes de información digital por cada persona. Un tercio lo produce ella directamente y los otros dos escapan a su control.
  • Se envían mundialmente 60 mil millones de e-mails por día.
  • En 1997 existía 1 millón de sitios web, en el 2000 pasaron a ser 10 millones. En el 2006 la cifra alcanzaba los 105 y en el 2007 superó los 155 millones de sitios Web.
  • Hay cerca de 74 millones de blog y en las últimas 24 horas se generaron más de 100 mil.
  • Se hacen más de 2700 millones de búsquedas en Google cada mes en todo el mundo. A Google le cuesta cerca de un millón de dólares diarios mantener y actualizar el hardware por indexación.
  • Google almacena 850 TeraBytes en Google Search; 220 TeraBytes – Google Analytics; 70.5 TeraBytes – Google Earth; 9 TeraBytes – Orkut; 4 TeraBytes – Personalized Search y 2 TeraBytes – Google Base

Como verán las cifras son gigantes, inimaginables para un usuario común que tiene un disco de 80 gigas y le super alcanza, esta evolución principalmente fue marcada con la aparicion de la Web 2.0 y la consecuente participación de los usuarios con el aporte de información e intercambio de archivos a través de internet, lo que condujo a la creación de nuevos servicios para el almacenamiento de archivos, espacios para compartir fotos, videos y muchas cosas mas.

La aparición de blogs y páginas personales es cada vez mayor al igual que los servicios que lo permiten, éste aumento se debe a que todos tienen algo que contar y compartir y la tecnología está cada vez mas al alcance de cualquiera que en años anteriores, esto lleva a que los sistemas de indexación de los buscadores como Google tengan que aumentar sus capacidades para poder tener la web al día por decirlo de alguna manera, ya que es eso lo que hace tan eficiente a Google en cuanto a la rapidez de sus búsquedas. Pero bueno volviendo a lo de antes, hay alguna forma de imaginarse la Web 3.0 que ya está arrimando sus narices al mundo, según Tim Berners-Lee, el creador de internet, el futuro de la red está en la inclusión de la inteligencia artificial para que las computadoras puedan entender el significado de las paginas web.

Sistemas como wikipedia cada vez aportan mas información a la red, y todo por colaboradores alrededor del mundo, el nuevo sistema Knol de Google algo parecido a wikipedia ayudará a sumar, además del proyecto de la biblioteca virtual, cada vez hay mas y mas en la red dando vueltas. En el post que les indique arriba se menciona que IBM calcula que después de 2010 el volumen de datos accesibles en línea se espera que se acercará a un yottabyte o el equivalente a 1 billón de terabytes, si leyeron bien un billón, de los cuales en un alto grado nosotros seremos los responsables de subirlos.