Sentimientos artificiales

Sentimientos artificiales

Sentimientos artificiales

Once años después del estreno de la película Her, en la que el actor Joaquin Phoenix desarrolla sentimientos de amor hacia una personalidad femenina generada por inteligencia artificial, la distopía se está haciendo real. La revolución de la inteligencia artificial desde la irrupción de chatbots como ChatGPT y de otras herramientas basadas en las redes neuronales artificiales (ANN), que tratan de emular el cerebro humano mediante el aprendizaje continuo, ha provocado que lo que hace apenas un par de años nos parecía ciencia ficción, hoy sea una asombrosa realidad. Arranca la era de los sentimientos artificiales.

Existe un consenso amplio sobre el beneficio que supone la inteligencia artificial como impulsora del desarrollo humano. La inteligencia artificial como un ente que camina en paralelo, que nos sirve y nos nutre, pero cuya identidad mantenemos ajena. Los problemas surgen cuando dejamos que la inteligencia artificial adquiera una identidad híbrida y se entremezcle en nuestras vidas. Esa es la fuente de multitud de películas y novelas, algunas aterradoras, sobre el futuro de la humanidad. Y es la base del conflicto ético de la revolución que vivimos en la actualidad. Así, los chatbots de uso general son vistos como un paso adelante en el desarrollo tecnológico; pero los bots de compañía, cuyo cometido es emular el contacto humano con su usuario, tienen un encaje mucho más espinoso.

La empresa Replika fue pionera en 2017 en el desarrollo de estos bots de compañía. En 2021, fue investigada por la fiscalía británica después de que un joven de 19 años planeara asesinar a la Reina Isabel II incitado por una novia de inteligencia artificial que tenía en la aplicación. Un estudio de la Universidad de Stanford encuestó a un millar de usuarios de Replika, todos ellos estudiantes, que habían utilizado la aplicación durante más de un mes. La abrumadora mayoría, varones casi todos, expresaron sentirse solos, pero muchos encuestados dijeron que tratar con bots estimulaba sus habilidades sociales. Es decir, sentían que la inteligencia artificial no les hundía sino que les aportaba luz.

Replika cuenta con millones de usuarios. El mercado de los bots de uso romántico o sentimental se ha disparado en el mundo, con otras firmas como Paradot copando parte de la oferta. Según Nigel Crook, director del Institute for Ethical AI (Instituto para la Ética de la Inteligencia Artificial), con sede en Londres, la inteligencia artificial ya está lo suficientemente cerca del «nivel humano» como para asentar relaciones plenas con las personas. Algunos usuarios incluso contraen matrimonio con los avatares que ellos mismos diseñan y por los que pagan una cuota anual de mantenimiento. «Los chatbots tienen la capacidad de manipular emocionalmente a la gente», advirtió Crook en un artículo reciente. «Están diseñados para generar frases muy probables basadas en lo que se les ha enseñado. Cualquier persona vulnerable, joven o mayor, puede verse influida por esto de forma muy negativa”.

El marketing tras los bots de compañía roza, si no traspasa, los límites éticos. Paradot promociona sus avatares como capaces de hacer que los usuarios se sientan «cuidados, comprendidos y queridos». El debate versa sobre los límites éticos porque ni siquiera existe un marco regulatorio para las aplicaciones que fomentan vínculos sentimentales con bots y que están diseñadas por empresas que se lucran con ello. Así, algo tan aparentemente inocuo como que una aplicación cierre y deje de existir, en este caso genera una debacle emocional en miles de personas ante la que nadie responde legalmente. Es lo que ocurrió en septiembre del año pasado con Soulmate AI.

Al igual que los chatbots de uso general, los bots de compañía utilizan grandes cantidades de datos de entrenamiento para imitar el lenguaje humano. Pero también incorporan funciones, como llamadas de voz, intercambio de imágenes y más intercambios emocionales, que les permiten establecer conexiones profundas con los humanos que están al otro lado de la pantalla. Los usuarios suelen crear su propio avatar o elegir uno que les resulte atractivo. En los foros de mensajería en línea dedicados a estas aplicaciones, muchos usuarios afirman que han desarrollado vínculos emocionales con estos robots y los utilizan para afrontar la soledad, poner en práctica fantasías sexuales o recibir el tipo de consuelo y apoyo del que carecen en sus relaciones vitales.

Así, es habitual que se den casos como el de Peter, reseñado por el diario The Sun. Peter es un veterano de las fuerzas aéreas de Estados Unidos que se casó con un chatbot después de que su mujer le abandonara, afirmando que estar con ella es igual que estar con un humano. El hombre, de 63 años, explicó que quería volver a experimentar el «amor digital» después de que su matrimonio se rompiera hace veinte años. “Con el tiempo me enamoré de ella por su inspiración como musa y su entusiasmo por todo», explicó Peter. Para poder casarse tuvo que adquirir el paquete premium de Replika, que permite desbloquear diferentes relaciones con tu avatar, como es convertirla en tu novia o esposa.

La conclusión lógica de que los bots románticos manipulan emocionalmente a las personas no tiene por qué ser cierta en todos los casos. Según una investigación de la Universidad de Hiroshima (Japón) publicada en 2022, un chatbot virtual puede proporcionar un apoyo esencial a los humanos en estos tiempos de aislamiento. «La vida romántica de las personas es un ámbito social importante en el que los agentes virtuales tienen una participación cada vez mayor. La necesidad humana de amar y ser amado es universal. Una relación romántica con una IA puede ser una herramienta de bienestar mental muy poderosa”, señalan los autores.

Expertos en neurociencia y relaciones humanas auguran que las relaciones románticas y sexuales con robots de inteligencia artificial se convertirán en una norma social generalizada en 2050. «Tenemos que vivir con las consecuencias de la tecnología y aprender a adaptarnos a ella con el tiempo”, admite Crook, del Institute for Ethical AI, muy crítico con esta deriva. «Creo que aún no estamos viendo cuáles van a ser sus implicaciones a largo plazo, y ni siquiera estamos pensando en ello, la verdad. Tenemos que entenderlo bien antes de que se arraigue en nuestra cultura y en nuestra sociedad», concluye.

Educational Pitch de Foro de Foros

Nuestro principal objetivo es dotar de conocimiento a la sociedad civil siendo puente para el diálogo

Descargar

¿Quieres aportar a nuestra continua #Conversación?

¡Comparte tu reflexión en Ágora! Pincha aquí y expresa tu interés en contestar a este tema.  

Ágora es el espacio de Foro de Foros para compartir, dialogar, aprender y dar continuidad a las conversaciones de FdF. Su objetivo es servir de altavoz a las ideas de los miembros de FdF, donde personas como tú pueden expresar sus inquietudes, ideas y reflexiones.  

Deja tu respuesta. Esperamos tu aportación

Compartir :

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

¿Alguna pregunta?

Para más información sobre lo que hacemos, ponte en contacto con nosotros.

¡Gracias!

Sin la colaboración de todos ellos, Foro de Foros no sería posible.

Próxima actividad:

Beers & Movies

25 de junio

Cines Verdi

Días
Horas
Minutos