• Páginas

  • Categorías

  • RSS GME RSS

    • Ha ocurrido un error; probablemente el feed está caído. Inténtalo de nuevo más tarde.
  • Archivo de MATBUS

  • Comentarios recientes

    Pilar on Quince curiosidades sobre el n…
    ÁLGEBRA EN CASA (X,Y… on Una introducción a la teoría d…
    Jose on Un gran fichaje para las matem…
  • Escribe tu dirección de correo electrónico para suscribirte a este blog, y recibir notificaciones de nuevos mensajes por correo.

    Únete a otros 54 seguidores

Shannon y su aporte matemático de las tecnologías

120160709053933

Claude Elwood Shannon (1916-2001) formuló las bases de la informática junto con Alan Turing y John von Neumann y demostró la importancia de las matemáticas para su aplicación a la tecnología.

En su infancia, dedicaba horas y horas intentando conocer el funcionamiento de los aparatos mecánicos que estaban a su alrededor y desde temprana edad sentía inclinación por las matemáticas y la ciencias naturales. Con 16 años ingresó a la universidad de Michigan, graduándose como ingeniero electrónico y matemático en 1936.

 

Después de terminar sus estudios de pregrado, trabajó de asistente en el departamento de ingeniería eléctrica en el Instituto Tecnológico de Massachusetts (MIT), y continúo sus estudios de doctorado en matemáticas.

Hizo parte del equipo de Vannevar Bush, quien construyó el analizador diferencial más completo de la época, un computador analógico que funcionaba a base de discos y engranajes y resolvía ecuaciones. En ese grupo escribió su tesis de Maestría denominada: “Análisis simbólico de relés y circuitos de conmutación”, y que presentó en agosto de 1937.

Mostró cómo el álgebra booleana, desarrollada por George Boole en 1854, proporcionaba el modelo matemático para los circuitos de conmutación eléctrica y los computadores.

En 1937 se vinculó con los laboratorios Bell, donde se rodeó de grandes matemáticos y físicos como John Bardeen, Walter Brattain y William B. Shockley inventores del transistor y galardonados con el Nobel de Física 1956. En ese ambiente académico aplicó el álgebra booleana a la genética, tal como había hecho con los circuitos.

Fruto de esa investigación fue su tesis doctoral “Un algebra para la genética teórica”. En 1940 recibió el título de Doctor en matemáticas del MIT, y el premio Alfred Nobel de la Sociedad Americana de Ingeniería civil por su tesis de Maestría.

Al final de la Segunda Guerra Mundial, demostró que todas las fuentes de información eran medibles, sentando  las bases que impulsaron el uso del teléfono y luego el internet. La idea la plasmó en 1948 con el libro “Una teoría matemática de la comunicación”.

En su escrito manifestaba que la información podía definirse y medirse como noción científica, algo revolucionario. Por eso es considerado el pionero de la era de la información.

Su modelo se representa por un esquema de cinco elementos: fuente,  transmisor, canal, receptor y destino, incluyendo el ruido, que aporta una perturbación. Y propuso el siguiente esquema de comunicación: La “fuente de información” entrega un “mensaje”, que es codificado por un “transmisor” en una “señal transmitida”. La señal recibida es la suma de la señal transmitida y un inevitable “ruido”. Luego se decodifica el mensaje y llega al destino.

Su teoría indicaba que haciendo una buena elección de transmisor y receptor era posible enviar mensajes con una exactitud y confianza arbitrariamente elevadas, siempre y cuando el ritmo de transmisión de información no excede un límite fundamental, denominado “capacidad de canal”.

Propone convertir los datos (imágenes, sonidos o texto) a dígitos binarios, es decir, bits de información en código binario (0, 1).

En 1946 publica el documento “Teoría de la comunicación de los sistemas secretos”, estableciendo la teórica para la criptografía y el criptoanálisis.

En 1950 se editó su el artículo “Programando una computadora para jugar al ajedrez”, enseñando que una computadora bien programada tendría la capacidad para jugar.

La inteligencia artificial surgió en 1955, con el artículo “Propuesta para el proyecto de investigación Dartmounth Summer en inteligencia artificial”, en el que Shannon era coautor.  En 1966 inventó el primer computador portátil en el MIT que predecía una ruleta.

 

El ingenio de Shannon sigue manifestándose en este siglo en varios campos: la teoría de la complejidad algorítmica, teoría de códigos, el desarrollo de la biología molecular, la información cuántica.

El 24 febrero de 2001 falleció y en su tumba aparece la formula C = W log{(P+N)/N}, que indica la capacidad de un canal de banda W perturbado con ruido térmico blanco de potencia N cuando la potencia promedio  de transmisión está limitada a P.

Leer más:

http://www.cronicadelquindio.com/noticia-completa-titulo-shannon_y_su_aporte_matemtico_de_las_tecnologas-seccion-la_general-nota-100504

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: