Claude Elwood Shannon

Biografía

Claude Elwood Shannon_2

Claude Elwood Shannon (Míchigan, 30 de abril de 1916 – 24 de febrero de 2001) fue un ingeniero electrónico y matemático estadounidense, recordado como “El padre de la teoría de la información”. [Claude Shannon, Mathematician, Dies at 84]

Matemático, del “Bell Telephone Laboratories”. Shannon desarrolló la teoría estadística de la información, la aplicación del cálculo proposicional para circuitos de conmutación, y tiene resultados en la síntesis eficiente de los circuitos de conmutación, el diseño de máquinas que aprenden, la criptografía y la teoría de las máquinas de Turing. Él y J. McCarthy co-editaron la revista “Annals of Mathematics”, el estudio de “La Teoría de Autómatas”. [A Proposal for the Dartmouth Summer Research Project]

Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea. Durante este período Shannon trabajó en muchas áreas, y lo más notable fue todo lo referente a la teoría de la información, que se publicó en 1948 con el nombre de “Una teoría matemática de la comunicación”. En el área de las computadoras y de la inteligencia artificial, publicó en 1950 un trabajo que describía la programación de una computadora para jugar al ajedrez, convirtiéndose en la base de posteriores desarrollos. [Wikipedia]

Algunas de sus frases recordadas:

  • Visualizo un momento en que seremos  para los robots lo que los perros son para los humanos. Y yo apuesto por las máquinas.

Omni Magazine (1987)

 

  • Unos trabajos de investigación de primer nivel son preferibles a un gran número que están mal concebido o medio terminar. Estos últimos son ningún crédito a sus autores y una pérdida de tiempo para sus lectores.

            IRE Transactions on Information Theory (1956), volume 2, issue 1, page 3

 

  • Mi mayor preocupación era cómo llamarlo. Pensé en llamarlo “información”, pero la palabra estaba acostumbrado demasiado, así que decidí llamarlo ‘incertidumbre’. Cuando hablé con John von Neumann, que tenía una idea mejor. Von Neumann me dijo, ‘Deberías llamarlo entropía, por dos razones. En primer lugar, su función de incertidumbre se ha utilizado en la mecánica estadística bajo ese nombre, por lo que ya cuenta con un nombre. En segundo lugar, y más importante, nadie sabe realmente lo que la entropía es en realidad, por lo que en un debate que siempre tendrá la ventaja.”

Scientific American (1971), volumen 225, página 180

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: