🇨🇴En nuestro WhatsApp siempre hay algo bueno📲

Un pequeño homenaje a Claude Shannon: el hombre que creó la información

A poca gente le debemos tanto como a Claude Shannon. Con 21 años sentó las bases del diseño de circuitos electrónicos (con sus trabajos de álgebra booleana), con 32 creó él sólo la teoría de la información y más tarde desarrolló algunas de las primeras inteligencias artificiales.

Hoy se cumplen cien años de su nacimiento y no queríamos faltar a la cita con la persona que nos enseñó a pensar en serio en las tecnologías de la información.

Nació y creció en Michigan. En una entrevista para IEEE Spectrum Shannon confesó que siendo niño su héroe había sido Thomas Edison pero que lo que le decidió a dedicarse a la criptografía fue algo tan accidental como afortunado: un día cayó en sus manos "El escarabajo de oro" de Edgar Allan Poe. En el fondo, todo su trabajo fue sobre eso: sobre cómo transportar mensajes, cómo evitar el ruido y cómo conservar lo importante.

Ceros y unos

Cuando Boole publicó su álgebra en 1854 dijo que en los '0' y los '1' estaban la nada y el universo. El primero que se dio cuenta de que esa frase era algo más que una metáfora fue precisamente Claude Shannon.

Su trabajo de fin de máster ("A Symbolic Analysis of Relay and Switching Circuits") es casi con toda seguridad uno de los más importantes de la historia. En él, Shannon mostró que se podía usar la lógica booleana para resolver problemas implementándola a través de circuitos donde los interruptores encendidos representaban los '1' y los interruptores apagados, los '0'. Hoy por hoy, el potencial del binario nos parece evidente: quien lo vio fue Shannon.

Aunque el trabajo estaba motivado por la necesidad de las telefónicas de solucionar un problema logístico importantísimo (el tamaño y la complejidad de la red crecen a un ritmo mayor de lo que los operadores humanes podían asumir) y, de hecho, le valió trabajo en los laboratorios Bell, rápidamente sus ideas superaron esos límites.

El creador de la información

En el 1948, publicó "Una teoría matemática de la comunicación" el trabajo fundacional de la teoría de la información. Shannon intentaba pensar sobre cómo transmitir mensajes y cómo impedir que se convirtieran en ilegibles entre el ruido.

En el proceso, creó la idea formal de información, introdujo el concepto de bit y desarrolló la idea de entropía de la información: su propuesta que se centraba en la idea de incertidumbre y probabilidad cambió totalmente la forma de entender la comunicación y abrió las puertas a las tecnologías de la información y la comunicación que disponemos ahora.

Desde 1958 fue profesor del MIT donde realizó algunos de los primeros desarrollos en inteligencia artificial (su trabajo sobre programas de ajedrez definió el área durante décadas) y, por si parecía un poco aburrido, desarrolló métodos estadísticos para jugar (y ganar) distintos juegos "de azar". La película 21 Blackjack está inspirada en el grupo de investigadores del MIT que viajaba a Las Vegas del que Shannon formaba parte.

El Alzheimer nos arrebató una de las mentes más brillantes de la tecnología el 24 de febrero de 2001. Poca gente puede decir que ha visto como su trabajo ha revolucionado el mundo. Al menos, Claude Shannon se llevó eso consigo.

Imagen | Paul Keller, Filter Forge

Ver todos los comentarios en https://www.xataka.com.co

VER 0 Comentario

Portada de Xataka Colombia