Ricardo Kleinlein
Noviembre 26, 2024
Sobre el Nobel de Física
Hace unas semanas se anunció que el Premio Nobel de Física de 2024 se otorgaba a dos investigadores conocidos por su trabajo en Inteligencia Artificial (IA). Aunque algunos lo calificaron como una estrategia de marketing de la Academia Sueca para dar protagonismo a una tecnología de moda, hoy veremos que, en realidad, ciertas IAs nacen como modelos físicos, no computacionales.
Caminos que se cruzan
Los Premios Nobel fueron establecidos en 1895 por disposición testamentaria de Alfred Nobel, famoso sueco inventor de la dinamita. Según cuenta el mito, Nobel, tras acumular una considerable fortuna y ser consciente del inmenso daño que indirectamente había causado a miles de personas, decidió que la mayor parte de su riqueza se destinara a la creación de un fondo para otorgar premios anuales, los cuales reconocerían a las mentes más brillantes en los campos de la física, la química, la medicina, la literatura y los esfuerzos por alcanzar la paz entre las naciones.
Albert Einstein, Marie Curie, Niels Bohr, Werner Heisenberg, Peter Higgs… La lista de ganadores del Premio Nobel de Física incluye a algunas de las mentes más brillantes de la historia de la humanidad. Sin embargo, entre esta extensa lista, sólo uno puede presumir de haber sido invitado a tocar los bongós en un desfile de Carnaval en Río de Janeiro: Richard Feynman (1918–1988). Un genio sin igual, Feynman combinaba sus dotes musicales con una capacidad de aprendizaje inaudita, más cercana a una intuición sobrenatural que a un proceso tradicional de absorción de información. En 1965, recibió el Premio Nobel por su desarrollo de la electrodinámica cuántica, teoría que no debe confundirse con la práctica de subrayar con diferentes colores un texto sobre física. No obstante, para él, el momento de mayor valor profesional de su vida siempre sería su participación en el Proyecto Manhattan, bajo las órdenes de J. Robert Oppenheimer. Durante este proyecto, Feynman desarrolló algoritmos esenciales para calcular magnitudes críticas en el desarrollo de los artefactos nucleares que decidirían la guerra en el Pacífico. Como relata en su deliciosa autobiografía, Feynman tenía una inclinación irresistible por desafiar las normas, lo que hacía que encontrar maneras más eficientes de resolver problemas fuera un trabajo hecho a su medida [1].
En sus últimos años de vida, mientras trabajaba en el Instituto de Tecnología de California (Caltech), Feynman entabló amistad con un grupo de visionarios que discutían seriamente—con ecuaciones y todo—la posibilidad de crear inteligencias artificiales capaces de computar ecuaciones con una velocidad sin precedentes [2]. En 1981, junto a Carver Mead (1934) y John J. Hopfield (1933), impartió un primer curso, que ahora asociamos a la Inteligencia Artificial pero que ellos titularon “Física de la Computación” [3]. En la mitología griega, los titanes dominaban su universo con un poder absoluto e indiscutido. De manera similar, estos tres ilustres sabios desataron una revolución tecnológica que apenas comenzamos a comprender y que podría tardar décadas—o incluso siglos—en completarse. Mientras Feynman sentó las bases de la computación cuántica, Mead trabajó en la creación de dispositivos neuromórficos, ingenios diseñados para replicar el funcionamiento de los cerebros biológicos. Por su parte, Hopfield buscó utilizar computadoras para recuperar recuerdos, sentando las bases de las redes neuronales profundas que han transformado el mundo de la inteligencia artificial.
Es fundamental destacar que, en el modelo de Ising, cada casilla (átomo magnético) sólo interactúa directamente con sus vecinos más cercanos, lo que implica que las interacciones son de corto alcance
Relación con otros módelos físicos
Un autómata celular (AC) es un modelo discreto compuesto por una cuadrícula de celdas, donde cada celda puede estar en uno de un número finito de estados. Esta cuadrícula evoluciona a lo largo de pasos de tiempo discretos, siguiendo un conjunto de reglas que dependen de los estados de las celdas vecinas. Este concepto ya lo habíamos explorado anteriormente. De hecho, cuando presentamos el Juego de la Vida de John Conway, descubrimos cómo un sencillo «juego» podía generar una amplia variedad de situaciones. En una malla bidimensional, existían individuos (representados por celdas con valor “1”), en contraste con las celdas vacías, que tenían valor “0”. Su evolución en el tiempo daba lugar a diferentes patrones, algunos de los cuales resultaban ser estables, correspondiéndose con elementos que aparecían de manera recurrente en dicha malla..
Curiosamente, algunas de las propiedades de ciertos materiales magnéticos pueden modelarse utilizando un concepto similar: el modelo de Ising, denominado así en honor a su creador, Ernst Ising (1900—1998). En el modelo de Ising, un sistema magnético está compuesto por átomos magnéticos que se representan mediante cuadros, cada uno de los cuales puede estar en uno de dos estados posibles, comúnmente simbolizados como negro o blanco. Estos estados corresponden a dos posibles orientaciones del momento magnético del átomo: «arriba» o «abajo». Dichas orientaciones también pueden interpretarse como la dirección en la que se orienta el magnetismo del átomo, ya sea paralela o antiparalela al campo magnético externo. El modelo de Ising premia la alineación de los momentos magnéticos: hay una ganancia de energía cuando dos cuadros adyacentes se encuentran en el mismo estado, es decir, ambos son negros o ambos son blancos. Esta ganancia de energía refleja una tendencia hacia el ferromagnetismo, un fenómeno en el que los momentos magnéticos de los átomos tienden a alinearse entre sí [4].
Es fundamental destacar que, en el modelo de Ising, cada casilla (átomo magnético) sólo interactúa directamente con sus vecinos más cercanos, lo que implica que las interacciones son de corto alcance. No obstante, a pesar del movimiento aleatorio, el sistema en su conjunto puede llegar a alcanzar un estado en el que el cambio de estado de un átomo esté correlacionado con el de otro átomo, incluso a distancias infinitas. De este modo, el sistema exhibe un orden de largo alcance.
John H. Hopfield: sus méritos
John Joseph Hopfield, nacido el 15 de julio de 1933 en Chicago, Illinois, se destacó desde temprana edad por su notable talento académico. Hijo de padres físicos, Hopfield creció en un entorno que fomentó su profunda apreciación por la ciencia. Completó sus estudios de pregrado en física en Swarthmore College, donde se graduó en 1954, y más tarde obtuvo un doctorado en física en la Universidad de Cornell en 1958. Su carrera comenzó en los Laboratorios Bell de AT&T, donde se especializó en física del estado sólido. No obstante, a principios de la década de 1980, Hopfield redirigió su investigación hacia la neurobiología y la neurociencia computacional.
Hopfield estaba profundamente intrigado por los mecanismos del cerebro humano para almacenar y recuperar recuerdos. En particular, le fascinaba su capacidad para evocar recuerdos completos a partir de información parcial o contaminada por ruido, un proceso conocido como memoria asociativa que aquellos a quienes la sociedad llama “despistados” desconocemos bien. Él sabía que los mecanismos de memoria asociativa debían obedecer principios similares a los de un autómata celular: elementos simples e idénticos que generan sistemas complejos. ¿Acaso las neuronas no son, esencialmente, iguales entre sí? Reflexionando sobre este paralelismo, Hopfield recordó lo aprendido en sus cursos de magnetismo y en sus conversaciones con Feynman: ¡el modelo de Ising era la respuesta! Mediante este modelo, podía conceptualizar una red neuronal como un sistema que busca minimizar su energía, alcanzando estados estables que representan recuerdos almacenados.
Las redes de Hopfield, presentadas en 1982, son un tipo de red neuronal artificial que funcionan como sistemas de memoria asociativa, capaces de almacenar y recuperar patrones [5]. Para entender cómo funcionan, imagine una cuadrícula de bombillas, donde cada bombilla puede estar encendida (+1) o apagada (-1). Esta cuadrícula representa las neuronas en una red de Hopfield, y el estado de cada bombilla está influido por los estados de todas las demás bombillas a las que está conectada, de manera similar a las amistades: si la mayoría de mis amigos están felices (encendidos), es probable que yo también me sienta feliz.
Cuando se trata de almacenar patrones, la red entra en una fase de aprendizaje. Cuando se presenta una disposición específica de bombillas encendidas/apagadas, o un patrón, la red lo «aprende» ajustando la fuerza de las conexiones entre las bombillas. Este ajuste sigue la regla de aprendizaje de Hebb, una norma sencilla que fortalece las conexiones entre bombillas que están encendidas al mismo tiempo. La memoria de la red se codifica en una matriz de pesos, donde cada conexión tiene un peso que determina cuán fuertemente una bombilla influye en otra. Esta matriz es simétrica, lo que significa que la influencia de la bombilla A hacia la B es igual a la influencia de la bombilla B hacia la A.
Para recordar un patrón, la red comienza con una configuración inicial de bombillas, que puede estar incompleta o contener ruido. Luego, pasa por una evolución dinámica, actualizando el estado de cada bombilla de manera iterativa. Cada bombilla analiza a sus vecinas y decide si encenderse o apagarse en función de sus estados y los pesos de sus conexiones. Este proceso está impulsado por la minimización de energía, un concepto tomado de la física, donde la red busca reducir su «energía» total. La energía es mínima cuando las bombillas se estabilizan en una configuración que coincide con uno de los patrones almacenados. Este proceso continúa hasta que la red converge a un estado estable, recordando efectivamente el patrón desde la memoria. Hopfield demostró de esta manera cómo principios asociativos simples podían permitir que la red reconstruyera patrones a partir de datos incompletos, de manera similar a reconocer una melodía a partir de unas pocas notas.
Hopfield propuso sus redes en 1982. Aunque las redes neuronales artificiales habían sido teorizadas más de 60 años antes
¿Es merecido el premio?
La elegancia teórica y el éxito de las redes de Hopfield inspiraron un caudal de investigaciones adicionales en el campo de las redes neuronales, dando lugar al desarrollo de modelos más avanzados, como las máquinas de Boltzmann. Estos últimos incorporan métodos probabilísticos que amplían significativamente las capacidades de aprendizaje de las redes neuronales. Su inventor, Geoffrey Hinton (1947), comparte el Nobel con Hopfield, si bien tendremos que entender muchos otros conceptos antes de poder hablar de él y de sus contribuciones.
Hopfield propuso sus redes en 1982. Aunque las redes neuronales artificiales habían sido teorizadas más de 60 años antes, no lograban destacar en el panorama científico (uno de los famosos “inviernos” de la Inteligencia Artificial). Fue Hopfield quien demostró que, en ocasiones, la ruta más directa no es una línea recta entre dos puntos sino que en ocasiones, incluso en la ciencia, es necesario desviarse ligeramente para reencontrar el camino adecuado. La Inteligencia Artificial, como disciplina del conocimiento humano, no sería lo que es sin las redes de Hopfield, aunque hoy en día apenas se empleen. Estas redes fueron concebidas para el almacenamiento de memoria, pero no para aprender, generalizar ni realizar predicciones.
Hopfield logró replicar, mediante herramientas propias de la física, algunos de los aspectos más destacados de la biología humana, como el almacenamiento de recuerdos y memorias, poniéndonos de nuevo ante el incómodo espejo que representa la IA, una tecnología que cada día hace menos especiales nuestras cualidades cognitivas como especie. Sin lugar a dudas, el premio recibido a sus 91 años es un reconocimiento tardío, pero bien merecido.
References
[1]: Feynman, R. (2018). Está usted de broma, señor Feynman? (Colección Libros Singulares, LS) (3432820). Alianza Editorial. ISBN 978-84-9181-139-8.
[2]: W. Daniel Hillis; Richard Feynman and the Connection Machine. Physics Today 1 February 1989; 42 (2): 78–83. https://doi.org/10.1063/1.881196
[3] Mjolsness, Eric. “Feynman on Artificial Intelligence and Machine Learning, with Updates.” ArXivabs/2209.00083 (2022).
[4]: Ising, E. (1925). Beitrag zur Theorie des Ferromagnetismus [Contribution to the Theory of Ferromagnetism]. Zeitschrift für Physik, 31(1), 253–258.
[5]: Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences, 79(8), 2554-2558.
Ricardo Kleinlein
Post-Doctoral Research Fellow. Brigham & Women’s Hospital, Harvard Medical School. Amigo Foro de Foros
Súmate a Foro de Foros
Educational Pitch de Foro de Foros
Nuestro principal objetivo es dotar de conocimiento a la sociedad civil siendo puente para el diálogo