sábado, 13 de agosto de 2011

BIOGRAFÍAS: Warren Weaver y Claude Shannon

Warren Weaver (1894-1978)
Nacido en Reedsburg, Wisconsin, en 1894. Estudió en la Universidad de Wisconsin. Inició su actividad docente en el Throop College de Pasadena (1917-1918) y en el California Institute of Technology (1919-1920), antes de ingresar en la Universidad de Wisconsin, donde enseñó durante doce años y fue director del Departamento de Matemáticas (1928-1932).
En 1932 fue nombrado director de la División de Ciencias Naturales del Instituto Rockefeller, que ejerció hasta 1955, y más tarde vicepresidente de la División de Ciencias Naturales y Médicas (1955-1959). Desde el Instituto Rockefeller promovió el trabajo de los científicos jóvenes, especialmente en líneas de investigación como la genética y la 'biología molecular', término que enunció el propio Weaver en 1932.
Durante la segunda guerra mundial encabezó el Applied Mathematics Panel, que reunió a destacados científicos en el estudio de soluciones que tendrían una gran influencia en los desarrollos de la posguerra. Vicepresidente del Instituto Sloan-Kettering de investigación sobre el cáncer (1950).
Interesado en el estudio de los procesos técnicos de la comunicación durante los años de la guerra (criptografía, decodificación automática, etc.), en 1949 escribió con Claude E. Shannon The Mathematical Theory of Communication. Este mismo año, en un informe para la Fundación Rockefeller, Weaver señaló que existía una analogía entre la decodificación mecánica y la traducción, por lo que promovió la investigación para el desarrollo de sistemas de traducción automática, cuyos primeros resultados aparecieron en la Universidad de Georgetown con el empleo de las lenguas rusa e inglesa.
Fue un entusiasta en los beneficios para el desarrollo y progreso de la sociedad a través de la divulgación de la ciencia (en 1954 fue nombrado presidente de la American Association for the Advancement of Science). En 1967 publicó Science and Imagination. Escribió una autobiografía bajo el título Scene of Change. A Lifetime in American Science, Scribners, Nueva York, 1970.
Entre las numerosas condecoraciones, le fue otorgada la medalla británica por la Cause of Freedom (1948), la de oficial de la Legión de Honor de Francia (1951), el premio Kalinga de la UNESCO (1964), así como diversos doctorados 'honoris causa', entre ellos por la Universidade de São Paulo (1952).
 PENSAMIENTO Y EXPRESIÓN CIENTÍFICA 
 El papel de Weaver es muy relevante en la definición de la teoría matemática de la información, como hoy se conoce la que en origen se definió como 'The Mathematical Theory of Communication'. Le dio un alcance que en el planteamiento inicial de Shannon no tenía, ya que se restringía al ámbito de los lenguajes máquina y a la transmisión de estos mensajes.
A ambos se debe el conocido esquema lineal de la comunicación, en el que se define la secuencia fuente, transmisor, canal, ruido, receptor y destino.
Las aportaciones del veterano Weaver al joven y brillante Shannon dieron mucha mayor proyección al planteamiento teórico inicial, incluso con un acercamiento al campo de las ciencias sociales. Weaver no hablaba ya de mensajes independientes de su contenido, cuantificables en términos matemáticos y observados en el decurso de su flujo, sino un marco de análisis aplicable, por ejemplo, al mundo de los medios escritos, sonoros, visuales... "La teoría -señaló- revela que se aplican a todas estas formas de comunicación y a muchas otras".
Las aportaciones del veterano Warren Weaver a la concepción de Shannon son importantes, en la medida que da alcances que sobrepasan el mero ámbito de la escena técnica. Bajo la firma de ambos se publica el texto central de la teoría matemática (The Mathematical Theory of Communication, Universidad de Illinois, 1949), que ejercerá una influencia en distintas áreas disciplinares y corrientes de pensamiento orientadas hacia el estudio de la comunicación.
Weaver define tres planos o niveles en los que se superpone el hecho comunicativo: técnico, semántico y pragmático. El técnico hace referencia a la bondad, capacidad y precisión del emisor para enviar un mensaje; el semántico advierte sobre el significado e interpretación de los mensajes, y el pragmático se ocupa del efecto alcanzado, de la efectividad de la comunicación.


Claude Shannon
 (Míchigan, 30 de abril de 1916 - 24 de febrero de 2001), ingeniero electrónico y matemático estadounidense, recordado como «el padre de la teoría de la información».
Los primeros años de su vida los pasó en Gaylord, donde se graduó de la secundaria en 1932. Desde joven, Shannon demostró una inclinación hacia las cosas mecánicas. Resaltaba respecto a sus compañeros en las asignaturas de ciencias. Su héroe de la niñez era Edison, a quien luego se acercó bastante en sus investigaciones.
En 1932 ingresó en la Universidad de Míchigan, siguiendo a su hermana Catherine, doctora en matemática. En 1936 obtuvo los títulos de ingeniero electricista y matemático. Su interés por la matemática y la ingeniería continuó durante toda su vida.
En 1936 aceptó la posición de asistente de investigación en el departamento de ingeniería eléctrica en el Instituto de Tecnología de Massachusetts (MIT). Su situación le permitió continuar estudiando mientras trabajaba por horas para el departamento, donde trabajó en el computador analógico más avanzado de esa era, el Differential Analyzer de Vannevar Bush.
En ese momento surgió su interés hacia los circuitos de relevadores complejos. Intentando simplificar centralitas telefónicas de relés se dio cuenta de que estos podían usarse para hacer cálculos. Sumado esto a su gusto por la lógica y el álgebra boleana pudo desarrollar esta idea durante el verano de 1937, que pasó en los laboratorios Bell en la ciudad de Nueva York.
En su tesis de maestría en el MIT, demostró cómo el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas. En 1940 le fue concedido el Premio a ingenieros americanos del Instituto Americano Alfred Nobel de Estados Unidos, una concesión dada cada año a una persona de no más de treinta años. Un cuarto de siglo más tarde H. H. Goldstine, en su libro «Las computadoras desde Pascal hasta Von Neumann», citó su tesis como una de las más importantes de la historia que ayudó a cambiar el diseño de circuitos digitales.
Durante el verano de 1938 realizó trabajos de investigación en el MIT y le fue concedida la beca Bolles cuando trabajaba como ayudante de enseñanza mientras realizaba un doctorado en matemática.
En 1940 estudió una maestría en ingeniería eléctrica y se doctoró en filosofía matemática.
Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea como Harry Nyquist, Walter Houser Brattain, John Bardeen y William Bradford Shockley, inventores del transistor; George Stibitz, quien construyó computadoras basadas en relevadores, Warren Weaver, quien escribió una larga y clarificadora introducción a su The Mathematical Theory of Communication y muchos otros más.
Durante este período Shannon trabajó en muchas áreas, siendo lo más notable todo lo referente a la teoría de la información, un desarrollo que fue publicado en 1948 bajo el nombre de Una Teoría Matemática de la Comunicación. En este trabajo se demostró que
  • todas las fuentes de información (telégrafo eléctrico, teléfono, radio, la gente que habla, las cámaras de televisión, etc.) se pueden medir
  • y que los canales de comunicación tienen una unidad de medida similar, determinando la velocidad máxima de transferencia o capacidad de canal.
  •  Mostró también que la información se puede transmitir sobre un canal si, y solamente si, la magnitud de la fuente no excede la capacidad de transmisión del canal que la conduce,
  • y sentó las bases para la corrección de errores, supresión de ruidos y redundancia.
En el área de las computadoras y de la inteligencia artificial, publicó en 1950 un trabajo que describía la programación de una computadora para jugar al ajedrez, convirtiéndose en la base de posteriores desarrollos.
En el campo de la Biblioteconomía y la Documentación, el desarrollo booleano revolucionó las búsquedas en catálogos de bibliotecas o en bases de datos de centros de documentación.
A lo largo de su vida recibió numerosas condecoraciones y reconocimientos de universidades e instituciones de todo el mundo.
Preguntado en una ocasión por un periodista si las máquinas podían pensar replicó: «¡Naturalmente! ¡Usted y yo somos máquinas y vaya si pensamos!».
Claude Elwood Shannon falleció el 24 de febrero del año 2001, a la edad de 84 años, después de una larga lucha en contra la enfermedad de Alzheimer.












2 comentarios:

  1. muchas gracias por la info, me sirvio mucho el esquema para el certamen de mañana...

    ResponderEliminar
  2. Laura:
    Me parece que es necesario conocer acerca de los pensadores de la teoría matemática de la información (como lo has hecho tú), pues de tal forma se podrá comprender más a fondo dicha teoría.
    Lo que escribiste es una muy fuente fuente para analizar la teoría matemática de la información.
    Me gustó mucho como expusiste la temática
    María Camila Gutiérrez Delgado

    ResponderEliminar