Máquinas en el Paraíso


Hace mucho que no recomiendo un libro, así que aprovecho para comentarles que debido al cursado de la cátedra Inteligencia Artificial en la facultad me interese bastante en el tema (mas de lo normal digamos) y llegue al sitio Eliax donde en una de las secciones el autor deja un libro de su autoria llamado justamente Máquinas en el Paraíso.

Hace unos días que me puse a leerlo y la verdad esta muy bueno, muy bien desarrollado y con puntos concisos, así que por eso se los quería recomendar para los que les interese el tema.

Les dejo una pequeña descripción: Una odisea sorprendente desde el inicio del universo hasta la creación de mentes inteligentes, desde Inteligencias Artificiales hasta la reingeniería del universo mismo, desde la posibilidad de la vida eterna por medios tecnológicos hasta la posibilidad de reencarnar en otros universos.

Anuncios

La “evolución de las especies” de Unix


Después de haber visto cómo evolucionó GNU/Linux y Windows acá verán como fue para Unix desde el principio en los años 60:

Evolucion_unix

Imagen vía NeoTeo

La evolución Geek


Resuelta la teoría de la evolución :mrgreen:

evolucion_geek

La “evolución de las especies” de Windows


Anteriormente ya había mostrado la “evolución de las especies de Linux”, y ahora le toco el turno a los Windows de Microsoft para que no se pongan celosos tambien para ustedes hay.

Windows 1.0

En 1985 Microsoft publicó la primera versión de Windows (Windows 1.0), una [interfaz gráfica de usuario](GUI) para su propio sistema operativo (MS-DOS) que había sido incluido en el IBM PC y ordenadores compatibles desde 1981. Tomó un total de 55 programadores para desarrollarlo y no permitía ventanas en cascada.

Windows 2.0

Segunda versión de Microsoft Windows, lanzada el 9 de diciembre de 1987.

Windows 3.0

El 22 de Mayo de 1990 fue lanzado y vendió más de 10 millones de copias, el nombre clave durante el proceso de desarrollo fue Chicago.

Windows 3.1

El 6 de Abril de 1992 Windows 3.1 se puso a la venta y, sólo dos meses después, tres millones de copias fueron vendidas entre productos completos y actualizaciones sobre la versión 3.0.

Windows 3.11

Una actualización gratis de Windows 3.1, que contenía parches para errores menores, especialmente problemas relacionados con la instalación en redes.

Windows 95

Sucesor de Windows 3.11 para PC’s IBM. Se le conoció cómo “Chicago” durante su desarrollo. Lanzado el 24 de Agosto de 1995.

Windows 98

Nueva versión del sistema operativo, lanzada el 25 de Junio de 1998. Windows. Podría decirse que es una compilación de características.

Windows 98 Second Edition

Esta Segunda Edición suponía muchos cambios que el mero hecho de deshacerse del browser y, aparte de mejoras que hacían que el producto fuera más estable, se incluyó un soporte mucho más amplio a periféricos y todo tipo de hardware, además de incluir también una versión de Microsoft Internet Explorer 5.0 como producto aparte, es decir, desinstalable del sistema operativo.

Windows NT

(Windows New Technology, NT). El sistema operativo de 32 bits desarrollado originalmente para que sea OS/2 3.0 antes que Microsoft e IBM discontinuaran su trabajo con OS/2. El primer lanzamiento fue Windows NT 3.1 en Septiembre de 1993.

Windows ME

La edición del Milenio (Milenium Edition) es una actualización de Windows 98 que toma algunas características de Windows 2000.

Windows 2000 (Windows NT 5.0)

Un cambio de nomenclatura para el sistema NT. Así, lo que habría sido Windows NT 5.0 se conoce ahora como Windows 2000.

Windows XP

Lanzado el 25 del 10 de 2001, la principal característica del nuevo Windows es su nueva apariencia. El mayor cambio en WXP es cosmético, y además es el que mayores requisitos de sistema necesita.

Windows Vista

Durante su desarrollo fue conocido como Windows Longhorn. Fue lanzado el 30 de noviembre de 2006. Agrega efectos visuales asombrosos y varias opciones innovadoras como mejor control en las cuentas de usuarios, firewall bi-direccional, mayor seguridad, anti spyware, Windows Search, la barra del costado, y mucho más.

Windows 7

Sistema operativo en fase de desarrollo cuyo año de salida será el 2010 supuestamente.

La evolución hacia las redes P4P


Cuando una tecnología se impone, su sucesora está comenzando a dar los primeros pasos. Las redes P2P no son ninguna excepción, y ya se está desarrollando el protocolo que las sustituirán: el P4P.
Uno tendría que haber estado hibernando durante los pasados 5 años para no conocer las redes Peer-to-Peer o P2P. Sin embargo, no sería tan extraño que no supiera exactamente qué son ni cómo funcionan.
Queda claro que se trata de un conjunto de usuarios que utilizan un programa cliente común (aunque no tiene por qué ser exactamente el mismo) y comparten archivos, pero en vez de tomar un archivo completo de un solo usuario, se aprovecha toda la red pidiendo trozos del archivo a diferentes usuarios, pudiendo así maximizar la velocidad de descarga.
Pero para entender la importancia de la nueva tecnología P4P hay que saber un poco mejor cómo se organizan las redes P2P, su funcionamiento interno, y sus variantes.

¿Qué es P2P?

Como hemos adelantado, las Peer-to-Peer son redes en las que cada usuario se trata como un cliente y un servidor. Eso quiere decir que podemos descargar archivos de otros usuarios de la red, actuando como clienete, pero también convertimos nuestro ordenador en un servidor para que otros puedan descargar también desde el nuestro.

Las ventajas son variadas, pero principalmente nos permite disponer de un ancho de banda de bajada bastante alto siempre que el número de usuarios de la red sea elevado. Además, la disponibilidad del contenido no depende de la existencia de un único servidor, lo cual evita saturaciones y un mejor enrutamiento de las peticiones de los usuarios de la red.

De hecho, las redes P2P son la evolución natural de la arquitectura cliente-servidor aplicada a la filosofía de funcionamiento de Internet. Al igual que los enrutadores de Internet hacen fluir el tráfico de datos de manera descentralizada y buscando en cada momento el mejor camino para la información, las redes P2P reparten el tráfico entre sus usuarios, evitando cuellos de botella.

Sin embargo, este principio de funcionamiento se puede mejorar enrutando el tráfico de manera más eficiente. Como veremos más adelante, ésta es la principal mejora de las redes P4P.

No sólo para compartir archivos

Cuando hablamos de P2P, automáticamente nos vienen a la cabeza programas como Emule, Ares, BitTorrent, y un largo etcétera de clientes de compartición de archivos. Y nos viene a la cabeza la doctrina de que “es ilegal”, aunque no lo sea. Pero las redes P2P no sólo están asociadas a aplicaciones de descarga de vídeo, audio, o programas.

Aplicaciones tan conocidas como Skype o Zatoo, dedicadas a la comunicación por voz a través de Internet, y a la difusión de canales de televisión en abierto, respectivamente, utilizan una arquitectura de red P2P como base de sus servicios. No en vano Skype es idea de los creadores de una de las primeras redes P2P, Kazaa.

Y es que aunque P2P nos suene a un programa concreto, es un concepto de arquitectura de distribución de contenido, ya sea audiovisual, de comunicaciones, o radio a través de Internet. Cada vez más, las grandes compañías, que inicialmente vieron a este tipo de redes como amenazas reales, están adaptando sus contenidos para ofrecerlos a través de redes P2P.

Es el caso de Hulu, que retransmite (únicamente para los EEUU) series de actualidad y contenidos “primetime” de cadenas de renombre. El problema de Hulu es que si bien la arquitectura es P2P, su filosofía no lo es, y además de inundar su contenido con publicidad, no permite la descarga de sus programas a dispositivos móviles ni asegura la permanencia de los contenidos en sus redes a lo largo del tiempo.

P4P

Ya hemos puesto sobre la mesa los dos ingredientes que, combinados, llevan a la nueva tecnología P4P.
Por un lado, tenemos una estructura de distribución de contenido que funciona bien, pero que no tiene en cuenta la ubicación de los usuarios dentro de la red. Es decir, se le da la misma prioridad a un usuario que tenemos en nuestra red local que a otro que está en China a la hora de escoger desde dónde descargar el contenido.

P4P optimiza la descarga ubicando a cada usuario en diferentes niveles dependiendo de su cercanía: misma red local, mismo nodo ADSL, misma red nacional, etc., y escogiendo en cada caso a los que estén más cerca, optimizando así la velocidad y reduciendo el tráfico global de Internet.

Por otro lado, tenemos la implicación de las grandes compañías en el desarrollo de las nuevas redes, y es que es la estadounidense Verizon (una compañía que ofrece servicios de telefonía y acceso a Internet) la encargada de desarrollar esta nueva tecnología. Esto no es extraño, dado que, económicamente, les resulta muy interesante reducir el tráfico exterior de sus redes.

Además, la primera empresa en utilizar el protocolo P4P será una gran cadena, la NBC, para distribuir sus contenidos a través de la red. Su nombre: Pando.

Esto nos lleva a la pregunta final: ¿podrá un protocolo creado por los usuarios y para los usuarios convertirse en una herramienta comercial efectiva? Recordemos que para que funcione una red P2P (o P4P) se necesita la colaboración de los usuarios, y si estos ven como se ponen “puertas al campo”, abandonarán el proyecto en desbandada, por muy optimizado que sea el código.

Fuente: http://www.adslnet.es/

La “evolución de las especies” de GNU/Linux


Para los que supieron saber que distribución les conviene instalar en su equipo según una entrada que publique anteriormente, aca les dejo una imagen vía linuxmil para que vean de donde es que sale dicha version de linux y hacia donde evoluciono, y para los que no, bueno les sirve como para tener una idea de que cuando se habla de linux no solo hay una version unica del sistema operativo, sino que se van incluyendo mejoras de personas alrededor del mundo que colaboran en eso y es por eso que existen tantas distribuciones