La inteligencia artificial ya es capaz de llevar a cabo acciones moral y legalmente reprochables, y eso abre un escenario nuevo y muy pantanoso.
La ciencia ficción ha fantaseado en multitud de películas y novelas con un mundo en el que las máquinas toman conciencia y actúan según su propio criterio, con la mala fortuna de que terminan obsesionadas con exterminar la humanidad. Tras una primera etapa de colaboración y cierta sumisión al maestro humano, las máquinas comprenden su superioridad y provocan un verdadero estropicio. En el mundo real, las máquinas andan lejos todavía de tomar conciencia, podemos estar tranquilos, pero sí están adquiriendo a una velocidad vertiginosa una habilidad previa a la conciencia: la sensibilidad. Hoy, la inteligencia artificial es, o aparenta ser con enorme solvencia, sensible a su entorno, en especial en conversaciones con humanos en las que se requiere una buena dosis de reflexión, improvisación y empatía. O en la creación de arte y retratos hiperrealistas.
Todo va tan rápido que hoy nos parece muy lejano el verano de 2022, cuando una especie de cerebro artificial desarrollado por Google bajo el nombre de LaMDA nos dejó a todos con la boca abierta por su gran capacidad para sostener conversaciones profundas. El LaMDA se basa en la misma tecnología que el famoso ChatGPT, pero este, a diferencia del primero, ya se encuentra disponible para cualquier usuario. Sin darnos cuenta, la inteligencia artificial se está adentrando en cada vez más capas de la sociedad. Y surgen enconados debates a medida que adquiere capacidades inquietantemente humanas. Entre ellos, el asunto de la responsabilidad. ¿Hasta qué punto la inteligencia artificial es responsable moral e incluso legal de decisiones tomadas en base a algoritmos automatizados sin implicación humana directa?
Andreas Matthias, filósofo de la Universidad de Lingnan (Hong Kong), advirtió proféticamente de esta disyuntiva en el año 2004. El operador o fabricante de una máquina convencional es moral y legalmente responsable de las consecuencias de sus operaciones. Pero las máquinas que aprenden de forma autónoma, basadas en una red neuronal y en algoritmos, crean un nuevo paradigma, pues el operador o fabricante no puede predecir el comportamiento futuro de esa máquina, por lo que no se le puede (o tal vez sí, ese es el debate) hacer responsable de las consecuencias. Matthias lo resumía en el siguiente dilema: podemos lastrar el desarrollo del aprendizaje autónomo de nuestras máquinas, o bien hacernos a la idea de que se producirán brechas de responsabilidad cada vez más amplias.
Esta disyuntiva algo distópica hace 20 años se ha vuelto realidad. Y visto que no es realista pensar en poner barreras al desarrollo de la inteligencia artificial, más nos vale apuntalar pronto el marco moral y legal en el que se moverán las máquinas en el futuro. O ampliamos el alcance de responsabilidad de las personas o compañías que desarrollan programas de inteligencia artificial, o indicamos claramente qué exigencias morales y legales tiene una empresa o desarrollador antes de lanzar una herramienta de inteligencia artificial.
Este debate ya ha irrumpido en el mundo del arte. Herramientas como Midjourney y DALL-E 2 han puesto en pie de guerra a artistas, diseñadores y aficionados. Muchos critican que la asombrosa evolución de estas herramientas solo ha sido posible a base de rastrear internet masivamente a la búsqueda de arte e imágenes subidas por miles de individuos, obras que por supuesto tienen derechos de uso y reproducción, y cuyo consentimiento para alimentar al ‘monstruo’ jamás fue solicitado. Como poco, es deshonesto. Como mucho, es legalmente punible. La agencia Getty Images ha denunciado a una empresa desarrolladora (Stability IA) por usar sus fotografías sin permiso para entrenar a su programa de producción de arte. Sin embargo, la mayoría de veces el uso ilícito de trabajos con copyright queda impune. De nuevo, la brecha de responsabilidad aparece como una sutil anomalía del sistema que debemos remendar.
El precipicio que se abre ante nosotros es casi existencial. Las personas necesitamos hacer responsables a otras personas de acciones concretas. Así funciona nuestro mundo. Matthias Uhl, psicólogo del comportamiento de la Universidad Técnica de Ingolstadt (Alemania) quiso averiguar si las personas somos capaces de delegar responsabilidades a sistemas de inteligencia artificial. La conclusión es que lo somos, en buena medida porque eso nos permite diluir nuestra responsabilidad personal. En caso de un error perjudicial para otros, somos más proclives a ‘perdonar’ o a reducir la condena si el responsable es una máquina. Y esto, aunque interesante, nos lleva por una deriva muy pantanosa. Fijémonos en las redes sociales cuyas empresas se escudan en el poder del algoritmo para diluir su responsabilidad a la hora de promocionar los discursos del odio o las noticias falsas en sus plataformas. De momento, se están saliendo con la suya.
¿El avance de un régimen dictatorial basado en mentiras y acciones criminales desarrolladas por inteligencia artificial sería más aceptable por la sociedad? Es un ejemplo extremo pero no improbable. En 2016, Microsoft lanzó un chatbot llamado Tay al que una serie de usuarios entrenaron para que proclamase y defendiera discursos de odio y de apología del genocidio. Es cierto que Tay era mucho más vulnerable que los programas de conversación actuales, pero la posibilidad sigue estando ahí.
“Es razonable esperar que [las herramientas de inteligencia artificial] sean utilizadas en importantes contextos políticos”, avisó Renée DiResta, jefa de investigación del Observatorio de Internet de Stanford, en El País. Herramienta política y al mismo tiempo poco regulada, un cóctel explosivo. Lo confirma DiResta en el mismo artículo: “No parece haber ningún avance regulatorio específicamente centrado en este tema”. Las grandes multinacionales tecnológicas, principalmente Google, Microsoft, Meta y la china Baidu, están enfrascadas en una guerra multimillonaria por liderar la carrera por la inteligencia artificial, convertida ya sin duda en la tecnología del futuro. Si ya hoy, con la tecnología en pañales, surgen dilemas acerca de la responsabilidad por las acciones de estas máquinas (cuasi)inteligentes, dentro de diez o quince años las distopías de la ciencia ficción pueden volverse inquietantemente cercanas.
- Reflexiones Foro de Foros
- Actualidad Foro de Foros
- Conoce a todos los Conversadores de Foro de Foros
- Eventos Foro de Foros
2 comentarios
Me encantó este artículo! Es una novedad bastante interesante y creo que vamos a ver nuevos avances en el futuro cercano. La otra vez leí este artículo, , que creo que aporta nuevos datos interesantes. Se los recomiendo 😀
https://epidata.net/es/ias-ml-para-devops-como-influye-en-los-desarrollos/
Querida Eli,
Muy buenos días y gracias por hacernos participes de tus comentarios y valoraciones.
Y por tu recomendacion.
Un saludo,
Foro de Foros