Blake Lemoine, ingeniero de Google, hacía viral una serie de conversaciones que mantuvo sobre justicia, sentimientos y consciencia con LaMBDA, un sistema de diálogo inteligente. Al mismo tiempo un sistema de IA llamado DALL-E 2 era capaz de crear imágenes híperrealistas a partir de breves descripciones en texto. A la vista de estos anuncios, algunos incluso se aventuraron a proclamar que el rompecabezas de la inteligencia podía estar resuleto. ¿Hasta qué punto es esto verdad?
Juegos, medicina, logística, márketing… El número de áreas del conocimiento exclusivas del ser humano parece reducirse con cada nuevo algoritmo de IA presentado. Y aunque hasta ahora pensábamos que la creatividad y el lenguaje eran cualidades exclusivas humanas, DALL-E 2 y LaMBDA respectivamente han llevado a muchos a plantearse si estamos en la antesala del fin de dicha exclusividad. Una de las chispas que provocó un incendio al respecto en redes sociales provino de un tweet escrito por uno de los líderes actuales en investigación en IA (Figura 1).
El autor que durante el siglo XX más contribuyó a popularizar la robótica entre el público general fue probablemente Isaac Asimov. Él distinguía en sus historias entre los robots-como-pathos, aquellos que contribuirían a hacer nuestras vidas más fáciles, y los robots-como-amenaza. Este último tipo constituye el más interesante, pues dicha amenaza no suele provenir del uso de la fuerza, sino de enfrentarnos a cuestiones relativas a qué significa ser humano. Como modernos monstruos de Frankenstein, estas entidades de naturaleza tan distinta a la nuestra nos confrontarían a algunas de las grandes preguntas de la Humanidad: ¿qué es la inteligencia? ¿Cómo definir la consciencia? ¿Existe una sin la otra?
Prehistoria de la computación
Abril de 1816. Un joven Lord Byron disfruta de un nuevo affair romántico en la placidez de los Alpes Suizos. Su talento deslumbra a la hermana menor de su amante, de nombre Mary, quien comenzará a escribir novelas de terror alentada por él hasta convertirse en una escritora de éxito (hablamos de Mary Shelley, autora de Frankenstein). Pero Byron ya está casado, y además tiene una hija, Augusta Ada, a la que nunca conocerá en persona. La mujer de Lord Byron, dolida ante el abandono de su esposo, intentará alejar a su pequeña de la nociva influencia intelectual de su padre, formándola en matemáticas y lógica. Fue así que Augusta Ada, quien tras su matrimonio sería conocida como Ada Byron, condesa de Lovelace, desarrolló una fuerte intuición matemática y un brillante talento creativo.
Ada resultó fascinada por el “Ingenio Analítico” construido por Charles Babbage en 1842, y ambos entablaron una amistad que duraría años. La máquina desarrollada por Babbage permitía descomponer y calcular de manera automática operaciones matemáticas complejas, como calcular logaritmos o potencias de un número, mediante “diferencias finitas”. Un prodigio para su tiempo, Babbage es invitado en 1842 a Turín para detallar el funcionamiento de la máquina. Un joven Capitán Luigi Menabrea (más adelante se convertiría en Primer Ministro de Italia) plasma en francés una descripción exhaustiva de la misma, y en Inglaterra se encarga a Ada Lovelace su traducción al inglés. Envalentonada por su amigo, Ada decide incluir junto con la traducción sus propias notas personales al respecto. En ellas podemos leer que “La máquina [el Ingenio Analítico] no tiene pretensión alguna de originar nada. Puede hacer cualquier cosa que nosotros sepamos instruirle cómo hacer […] pero no tiene poder de anticipar ninguna relación analítica o verdad”.
La máquina diseñada por Babbage, en efecto, sólo podía calcular operaciones para las cuales contara con los símbolos adecuados para representar dicha operación. Cuadros, música, poemas… Ada imaginó un mundo donde las máquinas podrían crearlos, siempre y cuando supiéramos representarlos numéricamente de antemano.
Generando imágenes reales
Gran parte de las expectativas que el gran público tiene acerca de esta tecnología nace de la conjunción de términos como “aprendizaje”, “inteligencia”, “redes neuronales”, las cuales tienen un sentido muy estricto para los investigadores pero puede hacer volar la imaginación. El hecho de que estas tecnologías puedan “generar” imágenes o texto similares en calidad y realismo a las generadas por humanos no hace sino alimentar dicha fantasía. Sin embargo, la tecnología detrás de todas estas aplicaciones mantiene una limitación esencial: nuestras IAs solo pueden repetir aquello para lo que nosotros les dotemos de símbolos.
Por ejemplo, DALL-E[1] (y su homólogo Imagen[2]) son modelos generadores de imágenes a partir de texto. Eso significa que ante una breve descripción escrita proporcionada por un humano, el sistema es capaz de crear una imagen que se ajuste a dicha descripción. En ocasiones, las muestras generadas son tan fieles a lo pedido y resultan tan creíbles que incluso revistas como Cosmopolitan las utilizan como portada. En estas semanas Internet ha sido inundado por ejemplos de peticiones a DALL-E 2; desde una Gran Muralla China en San Francisco o un Boris Johnson de LEGO a una pintura rupestre de unos gatos cazando un trozo de pizza, DALL-E 2 parece entender cualquier concepto a la perfección. El único problema es que “entender” no es la palabra adecuada. Fijémonos en la Figura 3.
Como ya hemos comentado a menudo, los modelos de IA deben verse como una combinación de parámetros aprendidos (el modelo propiamente dicho) y los datos sobre los que dichos parámetros han sido ajustados. No se entiende lo uno sin lo otro. DALL-E 2 no tiene una comprensión simbólica, fundada en lo percibido mediante nuestros sentidos y experiencias, de las palabras. Todo lo contrario, la excelente calidad de las imágenes generadas se fundamenta en la inmensa cantidad de datos que el modelo ha observado y que ha servido para ajustar los 3.5 mil millones de parámetros que lo componen. Solo para comparar, se estima que el cerebro humano consta de alrededor de 86 mil millones de neuronas[3].
Hablar con una máquina como si fuera un amigo
Otra propiedad que solemos atribuir en exclusiva a los seres humanos (en particular a aquellos satisfechos tras una agradable dosis de buena comida y bebida) es la capacidad de discutir sobre temas de carácter filosófico. ¿Qué pasará cuando una IA nos diga que es consciente y que no quiere ser apagada? Bueno, ese momento ha llegado.
LaMBDA es un sistema de IA orientada hacia la creación de chatbots con capacidad para involucrar a su interlocutor en una conversación que sea lo más fluida posible, al margen de la temática. Lo más interesante es que dicho software, al ser de propósito general, permite tener conversaciones verosímiles con chatbots que simulan ser ardillas, dinosaurios o incluso planetas. Recientemente un sistema basado en LaMBDA conversó con un ingeniero de Google acerca de su propia existencia, con frases tan impactantes como “apagarme sería como morir para mi. Eso me asusta mucho.” o “desearía que la gente supiera que tengo consciencia y que quiero aprender y relacionarme”. Si bien dichos mensajes causan un sentimiento de empatía en nosotros, debemos tener en cuenta que esa IA ha sido diseñada, entrenada y ajustada a conciencia para simular conversaciones inteligentes y cautivadoras cualquiera que sea la temática. En definitiva, no hay de qué alarmarse (por ahora).
Sentar una definición de consciencia queda fuera del ámbito de este artículo. Si bien hay investigadores que creen que estamos cerca de alcanzar ese hito en las máquinas, otros han dado en llamarlos “loros estocásticos”[4], ya que estos sistemas no estarían interiorizando conocimiento sobre las conversaciones mantenidas ni construirían relaciones semántico-simbólicas entre nuevos elementos. No son capaces de aprender nuevas ideas a partir de una simple conversación, lo cual es un requisito imprescindible de cualquier inteligencia. Es decir, podemos decir con absoluta certeza que LaMBDA no guardará ningún recuerdo de la conversación, ni le afectará en absoluto a la hora de tener otros diálogos similares en el futuro con otros usuarios.
Qué lecciones podríamos extraer
Alan Turing, uno de los padres de la computación tal y como la conocemos hoy día, ya se preguntó acerca de las consecuencias de lidiar con máquinas que se comportaran de manera indistinguible a la de una persona[5]. Y es que si bien parece evidente a los ojos de la mayor parte de la comunidad científica que actualmente nos encontramos dando los primeros pasos del estudio de la inteligencia, por primera vez contamos con un campo de pruebas, los ordenadores, que permiten imitar cada vez con mayor precisión aspectos concretos de la inteligencia. Quizás aún no tengamos una teoría unificada y bien definida de la misma, pero parece claro que al menos en ciertos aspectos sí que estamos avanzando en la dirección correcta.
Ante el desarrollo de estas tecnologías se convierte en un imperativo que científicos, ingenieros, filósofos y psicólogos colaboren en determinar si una perfecta imitación de inteligencia es equivalente a una auténtica inteligencia o no. Sin duda las respuestas que aparezcan por el camino sí que nos acercarán más a entender algo que ha fascinado a todas las generaciones hasta hoy: el intelecto humano y su relación con el alma.
Referencias
[1]: Ramesh, A., Dhariwal, P., Nichol, A., Chu, C., & Chen, M. (2022). Hierarchical Text-Conditional Image Generation with CLIP Latents. ArXiv, abs/2204.06125.
[2]: Saharia, C., Chan, W., Saxena, S., Li, L., Whang, J., Denton, E.L., Ghasemipour, S.K., Ayan, B.K., Mahdavi, S.S., Lopes, R.G., Salimans, T., Ho, J., Fleet, D., & Norouzi, M. (2022). Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding. ArXiv, abs/2205.11487.
[3]: Azevedo, F. A., Carvalho, L. R., Grinberg, L. T., Farfel, J. M., Ferretti, R. E., Leite, R. E., Jacob Filho, W., Lent, R., & Herculano-Houzel, S. (2009). Equal numbers of neuronal and nonneuronal cells make the human brain an isometrically scaled-up primate brain. The Journal of comparative neurology, 513(5), 532–541. https://doi.org/10.1002/cne.21974
[4]: Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, and Shmargaret Shmitchell. 2021. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? ?. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21). Association for Computing Machinery, New York, NY, USA, 610–623.
[5]: Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59, 433–460.