Claude Shannon

Claude Shannon

Fue en 1937 que Claude Elwood Shannon, estudiante graduado en el MIT,  pone las cosas juntas y muestra que el álgebra booleana podía ser aplicada a problemas de circuitos conmutados.

Como tesis de su maestría en ingeniería eléctrica,  Shannon publicó un trabajo titulado “Un Análisis Simbólico de Disyuntores y Circuitos Conmutables”, aplicando la Lógica Simbólica de Boole en el análisis de conmutar los circuitos y mostrando como el álgebra lógica podía funcionar por medio de relays.

Un mérito de la tesis fue poner los fundamentos  para el uso del sistema de números binarios en lugar del sistema decimal en la computadora. Shannon mismo era demasiado pudoroso para hacer tal afirmación. Sin embargo, se está de acuerdo en que su análisis profundamente original probó ser un hito en el desarrollo de las computadoras digitales y ayudó brindando al mundo una rápida velocidad para entrar en la Era de la Información.

Desde que se pudieron conmutar circuitos, estos son el corazón de las centrales de teléfonos automáticas, y las ideas de Shannon probaron ser perfectamente útiles para los Laboratorios Bell de Teléfonos. Shannon fue a trabajar para la Bell como un matemático en 1941 y se movió de triunfo en triunfo, según las palabras de su predecesor, el catedrático del MIT Norbert Wiener, desarrollador del concepto de “Cibernética”.

Uno de los triunfos de Shannon en la Bell fue la publicación en 1948 de la “Teoría Matemática de las Comunicaciones”, en la cual demostró que los sistemas de ingeniería podían eliminar el ruido mediante la codificación de las señales. Esta teoría llevó a un esfuerzo mayor hasta poder lograr comunicaciones fiables con bajas tasas de error.

Los temas de interés de Shannon se extendieron al desarrollo del mouse (ratón), el ajedrez automático, la criptografía matemática y al alcance entero de la moderna teoría de la  información. 

En 1973 en una entrevista Shannon fue consultado respecto al impacto que había tenido en la teoría de la información del futuro la publicación de su artículo original. Contestó que fue sorprendido por la publicidad y la reacción que había tenido aquél artículo y que había sido uno de los hechos más importantes que le había ocurrido en aquéllos tiempos.

¿Cómo alcanzó sus brillantes conclusiones? Había estudiado álgebra Booleana en  un curso de Filosofía. Entonces como un estudiante graduado del MIT, Shannon trabajó en la computadora analógica y en el histórico “análisis diferencial”. Parte de esa máquina era un circuito de disyuntores muy complejo, y tenía que ir de a poco, pero apurado por el tiempo debía seguir avanzando y así consiguió interesarse en los circuitos de los relays. Y los circuitos de los relays son verdaderamente la misma cosa que los circuitos de las computadoras. Trabajando en eso y pensando sobre eso se hizo obvio que la matemática natural para usar  por los relays o los conmutadores era la de Boole.

La solución “obvia” de Shannon le hizo obtener en 1939 el Premio del Instituto Americano de Ingenieros Eléctricos,  cuando tenía solo 23 años. A los 65 años Shannon se jubiló y estuvo relativamente inactivo en este campo,  aunque permaneció como un miembro de la Junta Directiva de Teledyna Corp. Vivió con su esposa matemática, Betty Moore Shannon, y sus tres hijos en Winchester, Massachusetts. Shannon dedicó más tiempo para caminar, hacer ilusionismo y ocasionalmente andar en uniciclo (varios modelos de los cuales él ha diseñado y construido), escuchar jazz e invertir en acciones.

¿Y qué del futuro de la Teoría de la Información? Muchos han tratado de aplicar sus conceptos en áreas lejanas afuera del dominio de las comunicaciones electrónicas, en la psicología, el arte, la teología y la semántica. Pero sin mucho éxito. El verdadero futuro de la disciplina tiende hacia la inteligencia artificial, es la sensación de Shannon. Decía que las computadoras como estaban pensadas en esos momentos eran de una determinada manera pero visualizaba la posibilidad que complicados aparatos tipo robots pudieran llegar a realizar sofisticadas tareas intelectuales. Mientras que las computadoras ya pueden hacer tales tareas de negocios como teneduría de libros, contabilidades, trabajos bancarios y funciones en los censos, Shannon predijo una evolución hacia responsabilidades tales como la escritura de cartas y  la de colaboradoras en diversas tareas, como ocurrió en las décadas siguientes.

Un ejemplo perfecto de las contribuciones intelectuales sofisticadas posibles es el recientemente resuelto “teorema de los cuatro colores” un problema que dejó perplejo a los matemáticos por más de un siglo. Las computadoras no solamente han configurado como colorear un mapa con cuatro colores sin que ninguno fuera contiguo sino también cuando cuatro colores son requeridos para un mapa bidimensional. Shannon decía que la computadora tuvo mucha ayuda de los programadores pero fue la que hizo el trabajo desagradable, el trabajo difícil, tratando de resolver casos muy diferentes. De tal modo que la computadora hará las cosas que le requiera mucho tiempo y detalles a la gente. La simbiosis de estas dos cosas, decía,  será  una cosa importantísima.

 

Comentarios

Entradas populares de este blog

Glosario de Internet

Desarrollo de las Redes Informáticas de Investigación en la República Argentina

Informatica Medica en Argentina