Por Brandon Alejandro Mosqueda González y Raymundo Buenrostro Marisca
Sin duda uno de los avances científicos más importantes del siglo XX es lo Teoría de la Información (TI) propuesta por el matemático Claude Shannon. Quizá ningún otro trabajo en el siglo XX ha alterado tan profundamente la comprensión del hombre sobre la comunicación. ¿Pero qué es exactamente la teoría de la información y por qué influyó tanto en el desarrollo de las ciencias de la computación? La TI se publicó en 1948 en el Bell System Technical Journal, y proponía un método para expresar la información de forma cualitativa: A Mathematical Theory of Communication, como originalmente fue nombrada. La teoría proponía una nueva forma de manejar la información a través de los canales de transmisión, expresar los mensajes en una misma manera (considerar la información como números) y evitar la idea errónea de centrar la obsesión en el significado de los diferentes tipos de mensajes a transmitir (voz, imagen, música, palabras, etc.) (ALVY, 2014). Shannon se dio cuenta de que cualquier información puede descomponerse en piezas lo suficientemente pequeñas que pueden ser transmitidas por un canal de transmisión con una cierta probabilidad de éxito. Es en este artículo científico en donde se usa por primera vez el término bit (abreviación del término Binary digiT) para referirse a la unidad básica de información usada en las comunicaciones digitales, unidad que sólo puede tomar dos valores, 1 o 0 (Si o No).
Publicación: El comentario semanal