Expertos en inteligencia artificial advierten del riesgo existencial de esta tecnología si no limitamos su crecimiento. No parece que las principales potencias estén por la labor
“Mitigar el riesgo de extinción por parte de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”. Esta fue la declaración, tan escueta como taxativa, que el Centro de Seguridad para la IA de Estados Unidos publicó recientemente para alertar acerca de los peligros de la inteligencia artificial. En 2022, poco antes de la aparición del revolucionario ChatGPT, Washington encargó un informe sobre los riesgos que implica la expansión de la inteligencia artificial. A inicios de este año se publicaron los resultados, y una de las conclusiones fue esta: “El auge de la IA avanzada y la AGI [inteligencia artificial general] tiene el potencial de desestabilizar la seguridad mundial de un modo que recuerda a la introducción de las armas nucleares».
El documento, titulado Plan de Acción para Incrementar la Seguridad de la IA Avanzada, recomienda una serie de medidas regulatorias radicales. La primera, que el Congreso (o los órganos legislativos de cada país) declare ilegal entrenar modelos de IA utilizando más de un determinado nivel de potencia informática. El umbral debería fijarlo una agencia federal de IA de nueva creación. El informe sugiere establecer el nivel máximo justo por encima de los niveles de potencia informática utilizados para entrenar modelos de vanguardia actuales como el GPT-4 de OpenAI y el Gemini de Google. La nueva agencia de IA (que se recomienda para EEUU pero es aplicable a cualquier otro país) debería exigir a las empresas que trabajen sobre ese tope de potencia un permiso del gobierno para entrenar y desplegar nuevos modelos. En resumen, los expertos que han elaborado el informe urgen una regulación legislativa y una limitación de potencia, igual que se hace con tecnologías altamente destructivas como la energía nuclear o la industria del armamento pesado.
Casi a modo de juego, el Forecasting Research Institute (FRI), un ente especializado en prever escenarios futuros, planteó a una serie de expertos qué posibilidades hay de que la inteligencia artificial acabe con la humanidad en el presente siglo. Hubo dos facciones, los pesimistas y los escépticos. Los pesimistas cifraron en un 20% las posibilidades de catástrofe antes del año 2100, mientras los escépticos apenas le dieron un 0,12%. Tampoco se alcanzó un acuerdo sobre las causas que nos conducirían al desastre.
La típica frase “las máquinas nos matarán a todos” parece pues algo lejos de convertirse en amenaza.
Bien pensado, no es tan sencillo acabar con nosotros a menos que caiga un meteorito sobre la Tierra. La IA podría convertir nuestra existencia en un infierno de guerras e injusticias sociales, como ya ha narrado más de una distopia, pero acabar con la humanidad es una hazaña mucho más seria. Según los expertos consultados por el FRI, para alcanzar lo que se conoce como «colapso irrecuperable», la población humana debería reducirse a menos de un millón de personas durante un millón de años o más, o bien el PIB mundial debería caer por debajo de un billón de dólares (menos del 1% de su valor actual) durante un millón de años o más.
La raíz del desacuerdo entre expertos escépticos y pesimistas respecto a la IA estuvo en cuán pronto alcanzaría un nivel humano. Los pesimistas calcularon que hacia el año 2030 la inteligencia artificial tendrá “capacidades altamente peligrosas”, mientras los optimistas quitaron hierro y señalaron que para obtener una IA que nos ponga en peligro como especie, no solo primero se necesita que ésta alcance (o supere) la inteligencia humana, sino que se precisa una robótica que alcance también un nivel humano. Pues la inteligencia artificial, si pensamos en ella como cerebro, no puede plantarnos cara sin un cuerpo, en este caso maquinaria robótica. La típica frase “las máquinas nos matarán a todos” parece pues algo lejos de convertirse en amenaza.
De hecho, los escépticos sobre el apocalipsis se muestran más preocupados en el corto plazo, como por ejemplo las respuestas sesgadas e incorrectas de los modelos de IA actuales, que por los riesgos existenciales a largo plazo. Para los pesimistas, sin embargo, el peligro es la llamada AGI (siglas en inglés), o inteligencia artificial general, un tipo de inteligencia artificial que puede igualar o superar el rendimiento humano en una amplia variedad de tareas, que realizaría de manera autónoma, y que podría estar más cerca de llegar de lo que parece.
Tal como señala el informe encargado por Washington, el riesgo principal no es quizá el potencial de la IA en sí mismo, sino la falta de reacción legislativa y los inexistentes incentivos para que las empresas del sector se corten las alas por motivos puramente filantrópicos. A mayor desarrollo de la tecnología, mayor beneficio empresarial. De ahí que, como indican los pesimistas, la AGI llegue más pronto que tarde y sin que nadie sea capaz de ponerle las riendas. El asunto tiene difícil solución, pues por mucho que un grupo de países optase por legislar sobre el potencial de la IA, siempre habrá otro grupo de países que optará por no hacerlo, con las ventajas tecnológicas (en especial militares) que ello implica.
Súmate a Foro de Foros
Descubre todos los beneficios de formar parte de Foro de Foros
Educational Pitch de Foro de Foros
Nuestro principal objetivo es dotar de conocimiento a la sociedad civil siendo puente para el diálogo
¿Quieres aportar a nuestra continua #Conversación?
¡Comparte tu reflexión en Ágora!
Ágora es el espacio de Foro de Foros para compartir, dialogar, aprender y dar continuidad a las conversaciones de FdF. Su objetivo es servir de altavoz a las ideas de los miembros de FdF, donde personas como tú pueden expresar sus inquietudes, ideas y reflexiones.