La primera vez que lei sobre esta teoría fue hace unos años, especificamente en una revista PC Magazine en un artículo que hablaba sobre el impacto de las redes sociales y el crecimiento de muchas empresas relacionadas en el tema; el hecho es que hace unos días revisando las revistas me tope con el artículo y me interese un poco más sobre este tema y como resultado salio esto, que lo disfruten.
Seis grados de separación es la teoría de que cualquiera en la Tierra puede estar conectado a cualquier otra persona en el planeta a través de una cadena de conocidos que no tiene más de cuatro intermediarios. La teoría fue inicialmente propuesta en 1929 por el escritor húngaro Frigyes Karinthy en una corta historia llamada Chains. El concepto está basado en la idea que el número de conocidos crece exponencialmente con el número de enlaces en la cadena, y sólo un pequeño número de enlaces son necesarios para que el conjunto de conocidos se convierta en la población humana entera.
En la década de los 50, investigadores del MIT e IBM trataron de demostrar esta teoría de forma matemática (es decir, dado un grupo de N personas, ¿cuál es la probabilidad de que cada miembro de N esté conectado a otro miembro a través de 1, 2,3 … n enlaces). 20 años después, el problema seguía sin soluciones competas o satisfactorias.
En 1967, un sociólogo (Stanley Milgram) desarrolló un experimento (el fenómeno del small-world, el mundo pequeño) con el fin de probar la teoría: al azar, eligió ciudadanos americanos de la región del Centro-Oeste, con el fin de entregar un envío a un desconocido en Massachussets, a miles de kilómetros de distancia. La única información era simple: el nombre, la ubicación genérica (no había direcciones concretas) y la ocupación del destinatario. Con esta información, el objetivo para los que iniciaron la cadena era sencillo: entregar a quien ellos creyeran que podía estar ligado al destinatario, siempre que se cumpliera la condición de tratarse de personas que conocían directamente, y con la idea general de que el primer eslabón sería basado en el hecho de que creyeran que el conocido pudiera estar relacionado, es decir, que tuviera más probabilidades de conectar al destinatario de un modo u otro. Los receptores debían hacer lo mismo, y la cadena seguiría hasta que el destinatario fuera alcanzado.
¿Cuántos pasos se necesitaban? Los participantes pensaban en cientos, los más optimistas en decenas, y muchos creían que era absurdo e imposible. ¿La respuesta? En promedio, se necesitaron entre 5 y 7 intermediarios.
Los resultados (publicados en revistas y en bibliografía científica y psicológica) inspiraron la frase de seis grados de separación, y John Guare, escritor de teatro, popularizó el término con su obra de 1990.
En realidad, los descubrimientos de Milgram no fueron muy fundamentados (el número de paquetes y su muestra de participantes fue muy pequeño para sacara datos válidos o conclusiones, por ejemplo), pero el evento fue innegablemente mediático y una noción cultural relevante en la cultura popular actual. Universidades prestigiosas hicieron juegos, sistemas y demostraciones de los seis grados, basados en este principio, y juegos populares en todo el mundo comenzaron a surgir, muchos de ellos basados en personas conocidas como actores, o gente famosa.
En el 2001, la Universidad de Columbia continuó el experimento de Milgram, usando Internet, y tras pruebas numerosas (casi 50,000 personas enviando el «paquete» a destinatarios de 157 países) se encontró que el número de pasos promedio era… seis.
En el 2005, investigadores de University of Massachusetts Amherst propusieron un nuevo algoritmo para resolver el problema. Estos científicos crearon un algoritmo (conjunto de reglas y operaciones para resolver un tipo de problema matemático) que ayuda a explicar los hallazgos sociológicos que llevó a crear la teoría de los seis grados de separación. Este algoritmo tendría aplicaciones importantes en redes de comunicación, mejora en la respuesta frente a la difusión de virus informáticos, etc.
El algoritmo fue presentado por Özgür Simsek y David Jensen en el décimo noveno congreso internacional sobre inteligencia artificial en Edimburgo, y describe un modo eficiente para efectuar busquedas en unos casos particulares de red. Según los investigadores es aplicable a un variado número de redes como redes peer-to-peer, www, redes Ad-doc wireless, etc. Y es especialmente bueno en el tipo de redes dinámicas y de configuración variable no centralizadas como el último caso mencionado.
La solución planteada se basaen dos características de estos tipos de redes:
La primera característica de este tipo de redes descansa sobre la tendencia a la similaridad o homofilia, que significa que los atributos de un nodo (un individuo del estudio de Travers y Milgram) tienden a estar correlacionado con otros nodos. Así, un madrileño conoce a otros madrileños y lo mismo para cualquier otro tipo de característica como profesión, edad o aficiones.
La otra característica importante en este tipo de redes es que hay algunas personas que conocen a más personas que otras y esta característica les hace actuar como concentradores (“hubs”) de la red.
Si se toman ambas características en cuenta simultáneamente entonces podemos crear un algoritmo de búsqueda que toma un mensaje de un emisor y lo lleva al destinatario a través de la red de individuos gregarios. En el lenguaje de redes de telecomunicación esto favorece los nodos que maximizan la probabilidad de enlazar directamente con el blanco, y que es función tanto del grado como de la homofilia. La combinación de estos dos aspectos dota al algoritmo de la capacidad de encontrar el blanco a través de un camino muy corto y de una manera muy eficiente, aun desconociendo la estructura de la red.
Enlaces:
Comentarios recientes