Sobre la naturaleza de la información

 Ricardo Kleinlein

Enero 28, 2025

Sobre la naturaleza de la información

Nuestras vidas, a veces literalmente, dependen de computadoras digitales capaces de procesar información con una velocidad asombrosa. Pero, ¿cómo logramos convertir algo tan abstracto como la “información” en cadenas de ceros y unos que permiten crear imágenes, predecir enfermedades o resolver problemas que antes parecían imposibles?

Raras veces un hito científico surge íntegramente de la mente de un solo individuo. Sin embargo, cuando esto ocurre, toda la humanidad avanza de forma irrevocable hacia una nueva era. Nombres como Newton, Einstein o Curie perduran en la memoria colectiva porque su ingenio transformó para siempre nuestra visión del mundo. A esta lista de genios debemos sumar, sin duda, el de Claude Shannon (Michigan, EE. UU., 1916–2001), un joven de raíces rurales que, desde una pequeña localidad granjera sin electricidad – pues en aquel entonces menos de un 10% de las zonas rurales de la región contaban con acceso a la red eléctrica [1] – descifró uno de los misterios más profundos de la naturaleza: el papel de la “información” como una magnitud tangible y medible.

La revista Scientific American describió su tesis de Máster como la “Carta Magna de la Era de la Información” [2]. Una era definida por el auge de las computadoras, esas amalgamas de piedras metálicas capaces de realizar miles de millones de cálculos por segundo a las que recientemente hemos comenzado a dotar de algo que llamamos inteligencia. Pero para entender la genialidad de Shannon, y lo que significó para nuestra civilización, primero debemos retroceder hasta los primeros sistemas de cálculo automático, basados en engranajes, discos mecánicos, y mucha paciencia por parte de sus operadores humanos.

Variables continuas: el Analizador Diferencial

Vannevar Bush nació el 11 de marzo de 1890 en Everett, Massachusetts, en el seno de una familia de clase media. Su padre, pastor de la Iglesia Universalista de América, pertenecía a una comunidad que rechazaba los dogmas y anima a sus miembros a buscar la verdad a través de la razón y la experiencia personal. Los Universalistas habían sido pioneros en causas sociales como la abolición de la esclavitud, el sufragio femenino y, más recientemente, apoyando los derechos de los colectivos LGBTQ+ [3]. En este ambiente progresista, no es de extrañar que, al notar las inclinaciones naturales de Vannevar hacia las matemáticas y la ingeniería, su padre lo alentara a estudiar en el Tufts College, la misma institución donde él estudiara años atrás.

Para 1913, con apenas 23 años, Vannevar ya había obtenido una Maestría en ingeniería eléctrica. Más tarde, culminaría su formación con un doctorado conjunto en esa disciplina otorgado por dos de las instituciones más prestigiosas del mundo: Harvard University y el Massachusetts Institute of Technology (MIT). En 1919 aceptó una posición en éste último, donde desarrollaría una carrera que lo vincularía a la institución hasta su muerte en 1974. Fue allí donde, a partir de 1927, Bush diseñaría uno de los primeros computadores mecánicos del mundo: el Analizador Diferencial, una máquina concebida para resolver ecuaciones diferenciales complejas de manera automática [4].

Una auténtica virguería de la ingeniería, en esta precursora de los ordenadores modernos cada variable de una ecuación diferencial se representaba como el movimiento de un disco

Las ecuaciones diferenciales son el lenguaje de la física. Describen cómo las variables de un sistema –como la posición, la velocidad o la temperatura– evolucionan de manera continua a lo largo del tiempo o el espacio. Por ejemplo, la relación entre la posición y la velocidad de un cuerpo se modela mediante una ecuación diferencial, ya que la velocidad depende de cómo cambia la posición en cada instante. Por experiencia propia les puedo asegurar que algunas de estas ecuaciones pueden ser muy, pero que muy tediosas de resolver a mano. La necesidad de facilitar este proceso siempre fue evidente.

Una auténtica virguería de la ingeniería, en esta precursora de los ordenadores modernos cada variable de una ecuación diferencial se representaba como el movimiento de un disco. Por ejemplo, la posición angular de un disco simbolizaba un valor específico de la variable. La máquina, impulsada por un motor eléctrico, garantizaba un movimiento continuo en los componentes. Este motor hacía girar los discos principales, mientras que las ruedas conectadas a ellos permitían operaciones como la multiplicación por factores constantes. Coordinando el movimiento de varios discos, el sistema producía gráficas que representaban las soluciones a las ecuaciones programadas.

Al codificar el valor de los elementos de una ecuación en forma de posiciones angulares, dichas variables eran dentro del analizador diferencial auténticas magnitudes físicas que podían adoptar cualquier valor dentro de un rango continuo. Las integraciones y multiplicaciones que realizaba el Analizador Diferencial eran procesos mecánicos que operaban directamente sobre estas magnitudes físicas. Por tanto, programarla era un procedimiento costosísimo, siendo necesario ajustar la máquina para cada problema particular. Además, su diseño sólo permitía abordar la resolución de ciertos tipos de ecuaciones diferenciales. Por último, pero no menos importante, hay que tener en cuenta que la precisión de las variables continuas dependía de la calidad mecánica del sistema (ejes, ruedas y engranajes). La fricción y el desgaste podían por tanto introducir imprecisiones en los cálculos. En otras palabras, apagar y reiniciar no constituía una manera en absoluto útil de lidiar con los problemas que surgían al usarla.

Necesitábamos máquinas más sencillas de adaptar a nuestras necesidades, con capacidad para abordar un abanico mayor de problemas, cuyos procedimientos fueran uniformes, de tal manera que dos máquinas equivalentes pudieran obtener un resultado idéntico. Y mejorar el hardware no iba a ser suficiente. Se hacía necesario un salto cualitativo en la manera en que nuestras máquinas deducían las soluciones.

Desde los tiempos de Aristóteles, la lógica había sido una rama de la filosofía dedicada a deducir conclusiones a partir de premisas según un conjunto de reglas universales

El mundo en bits

Quiso el destino, la suerte o quizás ambas, que un joven y prometedor Claude Shannon, aún cursando su maestría, consiguiera en 1937 una posición temporal en el prestigioso MIT, bajo la tutela de Vannevar Bush, para trabajar en el mantenimiento del Analizador Diferencial. Shannon, con su espíritu inquieto y creativo, era conocido entre sus colegas no solo por su talento, sino también por su carácter juguetón; cuentan que solía pasear montado en un monociclo por los pasillos del laboratorio [5]. Sin embargo, no era solo el monociclo lo que lo distraía: la complejidad del Analizador lo fascinaba, especialmente cómo su motor eléctrico y sus discos interactuaban para generar circuitos eléctricos complejos. Pero al mismo tiempo, la mecánica del dispositivo lo desesperaba. La necesidad de lidiar continuamente con cada engranaje y componente físico lo hizo consciente de las limitaciones de los sistemas analógicos.

Ese verano, Shannon decidió escapar de las frustraciones del MIT y trasladarse temporalmente a los Laboratorios Bell en Manhattan. Allí, rodeado de los avanzados circuitos eléctricos que regulaban el sistema telefónico del país, encontró la inspiración que cambiaría su vida y la historia de la tecnología. Cuando regresó al MIT en otoño de ese mismo año, Bush le animó a incorporar estas ideas en su tesis de maestría, lo que resultó en un trabajo revolucionario, considerado por muchos la más influyente disertación de Máster de la historia [6].

Desde los tiempos de Aristóteles, la lógica había sido una rama de la filosofía dedicada a deducir conclusiones a partir de premisas según un conjunto de reglas universales. Por ejemplo, del razonamiento “Todos los hombres son mortales” y “Sócrates es un hombre”, se concluye necesariamente que “Sócrates es mortal”. Esta forma de deducción, conocida como lógica aristotélica, opera con valores binarios: las premisas y conclusiones son o verdaderas o falsas, sin términos intermedios.

Fue el matemático inglés George Boole (1815 — 1864) quien transformó esta lógica en un lenguaje matemático universal [7]. Su obra «An Investigation of the Laws of Thought» sentó las bases de lo que hoy conocemos como álgebra booleana, un sistema que trabaja con valores binarios, comúnmente representados como 0 (falso) y 1 (verdadero), y utiliza tres operaciones básicas: AND (las dos condiciones deben ser verdaderas), OR (al menos una debe ser verdadera) y NOT(la negación de una condición).

Ahí estaba la clave. Shannon, observando los circuitos eléctricos en los Laboratorios Bell, se dio cuenta de que los estados de un circuito podían representarse perfectamente con los valores del álgebra booleana: un circuito abierto (sin corriente) era un 0, y uno cerrado (con corriente) era un 1. Así, propuso que se podían implementar operaciones lógicas utilizando relés eléctricos, dispositivos electromecánicos capaces de cambiar entre estados de encendido y apagado. Shannon no solo demostró que las operaciones básicas del álgebra booleana podían ser reproducidas mediante estos circuitos, sino que también cualquier sistema lógico, por complejo que fuera, podía implementarse combinando esas operaciones fundamentales. Sería Alan Turing quien continuaría desarrollando este problema, sentando las bases de lo que más adelante se llamaría Inteligencia Artificial.

El enfoque propuesto por Shannon cambió radicalmente el paradigma de las ciencias computacionales: el valor de una variable ya no tenía que depender de la posición angular de un disco ni de un proceso mecánico complicado. Ahora, las variables podían representarse como secuencias de ceros y unos procesadas por circuitos eléctricos. Esta idea constituiría el nacimiento del diseño lógico para computadoras digitales.

Pero Shannon era un genio, y no se detuvo ahi. Nótese que cuantas más operaciones lógicas sean necesarias para describir con precisión el valor de una variable, mayor será el número de ceros y unos que tendremos que almacenar para conocer dicho valor. A cada uno de los elementos de dicha secuencia, le damos el nombre de bit, por binary digit [8]. Ocho bits dan lugar a un byte. 1024 bytes constituyen un kilobyte, 1024 kilobytes son 1 megabyte, y así para los Gigabytes y los Petabytes. Por supuesto, cuanto mayor sea una secuencia de bits, más configuraciones diferentes existen para que los ceros y unos de la secuencia se distribuyan… Es decir, más opciones de desorden existen. Y como hicimos con las moléculas de un gas, o con las palabras de un lenguaje, podemos por tanto emplear el concepto físico de entropía para medir cómo de ordenado, o de óptimo, es el código (o secuencia de bits) usada para representar una variable. O expresado de otro modo, podíamos medir, cuantitativamente, la cantidad de información que una secuencia de bits contenía.

Shannon, como el visionario que fue, logró convencer al mundo de algo revolucionario: la información, por sí misma, es una propiedad fundamental del universo, tan crucial como la materia o la energía. Gracias a su genialidad, nuestros ordenadores operan con código binario, el lenguaje que sustenta la era digital. Sin embargo, pese a sus innegables beneficios, esta elección no ha estado exenta de sacrificios: la rigidez de una lógica estrictamente binaria, donde todo es 0 o 1, limita a nuestras máquinas a un mundo de absolutos. Así, los ordenadores y las inteligencias artificiales que creamos no pueden procesar variables continuas, como el voltaje de una corriente eléctrica, la velocidad de un automóvil o la intensidad de un sonido, de la misma manera en que lo haría la naturaleza. En próximas entregas profundizaremos más en esta idea, pero a modo de reflexión final, le pregunto a Usted, querido lector, ¿cuántos fenómenos de la Naturaleza son independientes del tiempo que transcurra?

 

Referencias

[1]: Kitchens, Carl, and Price Fishback. «Flip the Switch: The Impact of the Rural Electrification Administration 1935-1940.» Journal of Economic History, December 2015, vol. 75, no. 4, pp. 1161-1195.

[2]: Graham Collins, “Claude E. Shannon: Founder of Information Theory”, Scientific American, Oct 2012.

[3]: Bossen, C. and Hamilton, J., 2011. Resistance and Transformation: Unitarian Universalist Social Justice History. Unitarian Universalist Association. Available at: www.uua.org/re/tapestry [Último acceso el 10 de Enero de 2025].

[4]: Zachary, G.P., 2018. Endless Frontier: Vannevar Bush, Engineer of the American Century. Free Press.

[5]: G Johnson, Claude Shannon, Mathematician, Dies at 84, New York Times (27 February, 2001).

[6]: Shannon, C.E., 1938. A symbolic analysis of relay and switching circuits. ISBN: B00088JJJC.

[7]: Machale, D., 2014. The Life and Work of George Boole: A Prelude to the Digital Age. Cork; Cork University Press, 2014.

[8]: Shannon, C.E., 1948. A Mathematical Theory of Communication. Bell System Technical Journal, 27(3), pp.379–423.

 

Ricardo Kleinlein

Post-Doctoral Research Fellow. Brigham & Women’s Hospital, Harvard Medical School. Amigo Foro de Foros

Ricardo Kleinlein

Educational Pitch de Foro de Foros

Nuestro principal objetivo es dotar de conocimiento a la sociedad civil siendo puente para el diálogo

Descargar

Compartir :

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

¿Alguna pregunta?

Para más información sobre lo que hacemos, ponte en contacto con nosotros.

¡Gracias!

Sin la colaboración de todos ellos, Foro de Foros no sería posible.

Próxima actividad:

Beers & Movies

25 de junio

Cines Verdi

Días
Horas
Minutos