¿Dónde y Cuándo?
ALEDRA LEGAL
C/ Ayala, 11 – MADRID
Martes 9 de abril, 2024
19:00h.- 20:30h.
¿Deberíamos exigir que cada nuevo avatar creado tuviera un DNI y una filiación respondiendo sus progenitores de sus actuaciones como responden los padres de los daños derivados de los actos de sus hijos menores?
Nos enfrentamos en nuestra próxima sesión de Entre Vinos Conversamos el día 9 de Abril, 2024 al desconcertante tema de los Sentimientos Artificiales que con ese título se publicó en el Food For Thought el pasado 7 de Marzo
Además de la fascinación que produce la narración de sorprendentes cosas que ya no son ciencia ficción, parece que el artículo nos interpela y demanda como lectores un cierto juicio o posicionamiento ante los fenómenos que se describen relacionados con los sentimientos e incluso enamoramientos virtuales.
Mas allá de las primera reacciones automáticas de nuestro cuerpo antes estos fenómenos, para juzgar o criticar algo con una mínima coherencia intelectual antes hay que fijar un marco de referencia de lo que entendemos que es bueno y lo que es malo. Solo ello nos permitirá situar el análisis enfrentándolo a ese marco ético o relacionado con el deber ser en nuestra sociedad. Pero vivimos en una sociedad en la que ese marco de referencia ética prácticamente se ha perdido o está ignorado en múltiples ámbitos teniendo muchas veces la sensación de no saberse ya lo que está bien y lo que no y relacionado con ello cuales son las responsabilidades exigibles asociadas a unos y otros actos.
Son varias, en mi opinión, las razones por las que ese marco hoy está muy difuso en relación con múltiples asuntos y desde luego también en relación con el tema de los sentimientos artificiales o digitales. Entre esas razones, podemos mencionar el individualismo, la omnipresente práctica del cortoplacismo, la necesidad de crecimiento empresarial que propicia la voracidad del consumismo, el extendido clima de comparación y de competitividad en ser socialmente atractivos, la deshumanización de las relaciones y el ensalzamiento de la riqueza, la productividad y desarrollo económico como valores supremos que aplastan a cualquier otro, propiciando una sociedad que está educando a su jóvenes para ser empleados en lugar enseñarles a vivir y ser personas. Si todo lo medimos y lo premiamos y castigamos con dinero y empleabilidad no nos debería sorprender que el dinero con sus prácticas y códigos asociados a su consecución se convierta en algo que subyuga otros valores y virtudes humanas e incluso la propia reflexión.
La realidad es que, hoy, la reflexión es casi inexistente y la sociedad se mueve en sus comportamientos de consumo de un tipo u otro incluyendo la IA sentimental con escaso o nulo análisis de consecuencias y efectos colaterales. En la lucha entre el vender y el actuar responsablemente analizando las consecuencias de las invenciones siempre vence la venta rápida y el interés de quien vende algo o busca seguidores.
¿Porque nos saltamos siempre el debate del deber ser? ¿Creemos que puede haber una sociedad sin un deber ser en forma de principios humanos, sociales y éticos? ¿Está bien dejar que la tentación ante el consumo, el vicio o la evasión se imponga siempre con el empujon por su puesto de la presión empresarial?
Como primer pilar para nuestro análisis me atrevo a decir que hoy NO TENEMOS EL MÁS MINIMO CONSENSO O RESPALDO SOCIAL SOBRE UN “DEBER SER”. Pero si en algo nos pusiéramos de acuerdo en lo que una persona real no puede hacer, en mi opinión bajo ningún concepto sería permisible lanzar al mercado una máquina o software(IA) que pueda llegar a hacer lo que para una persona estaría prohibido (manipular, chantajear, asesorar sin cualificación, engañar….)
Relacionado con lo anterior, no podemos olvidar que la IA es siempre una herramienta al servicio de las personas y como herramienta se puede vender o prestar con los consiguientes riesgos asociados a su uso. Y ante ello me pregunto que si todas las profesiones que pueden provocar daños por una mala prestación (por ejemplo médicos, psicólogos, arquitectos…) están sujetas a regulación, ética y responsabilidad ¿no sería igual y analógicamente aplicable una cierta exigencia ética y de responsabilidad a quien crea o explota herramientas de IA? ¿No es algo parecido a lo que ocurre con quienes ponen en el mercado productos o herramientas peligrosas que están sujetos a responsabilidad y limitaciones como por ejemplo la venta de medicamentos y armas? ¿No son las medicinas/drogas sustancias que pueden hacer mucho bien con determinados usos, pero también muchísimo mal si no se saben administrar? Los que investigan con medicinas y vacunas ¿no tiene que observar cautelas rigurosas para evitar efectos secundarios o colaterales de la investigación o de su utilización? ¿No tenemos asumido de forma mayoritaria que cualquier sustancia química que produzca adicciones y dependencias debe tener un cierto control? ¿Hay en términos éticos alguna diferencia entre que la influencia, manipulación o adicción se ejecute por vía química por vía digital? Y por tanto, desde una perspectiva ética o práctica ¿hay alguna diferencia para pensar que cualesquiera controles o limitaciones que apliquen a las sustancias generadoras de vicios, dependencias o degeneraciones no deban aplicarse de forma similar a la influencia en las personas conseguida virtualmente vía digital con IA?
Por ello como segundo pilar para nuestro análisis, pienso que, ante la falta de otros criterios, sería coherente APELAR A LA ANALOGIA PARA EL TRATAMIENTO DE LOS NUEVOS FENÓMENOS. Y así, ante los interrogantes anteriores parecería que deberían establecerse ciertas regulaciones, limitaciones y responsabilidades asociadas a la explotación de los sentimientos virtuales. Esto no elimina el debate frente a quienes piensan de forma más bien extrema que nada debería prohibirse ni regularse y que el mercado siempre lo arreglaría todo. Pero asumiendo que esas visiones son minoritarias y situando mis reflexiones en un contexto que considero más generalizado como opinión pienso que es razonable la idea de asimilar el tratamiento de quienes ponen productos de IA en el mercado al de quienes ponen otros servicios, productos o intervenciones sin diferencia por el hecho de desarrollarse a través de canales virtuales pues lo relevante no es el canal o soporte sino los efectos que producen en los usuarios y agregadamente en la sociedad.
En tercer lugar, saltemos al plano de la RECTITUD DE INTENCIÓN tan olvidada en nuestra sociedad. ¿Que busca quien ofrece y vende IA de sentimientos virtuales por una u otra vía? ¿Ayudar de verdad y responsablemente o tener un ingreso o cliente generándole una satisfacción en el corto plazo sin analizar las consecuencias para él en el medio o largo plazo? Podríamos decir que algo parecido puede pasar con quien vende whisky o vino cuyo buen y responsable consumo puede contribuir a una buena vida y que permite compatibilizar el lucro de quien vende con el beneficioso del usuario o consumidor. Pero, aun así, existen limitaciones publicitarias y de venta en nuestra sociedad para la venta de alcohol a pesar de tratarse de productos culturalmente arraigados y encontrarnos socialmente muy familiarizados con ellos y con su peligrosidad. Y si es así con lo socialmente integrado en nuestras costumbres ¿no debería observarse más rigor y prudencia ante aquello que es nuevo y respecto de lo que la sociedad no tiene cultura y saber estar.
Resumiendo, pongo encima de la mesa tres ideas o miradas:
1.- Desde mi punto de vista quien cree algoritmos de IA para simular (y casi suplantar la naturaleza de una persona) debería, por todos los medios, asegurar que esa persona artificial/virtual no pueda realizar actuaciones o influencias que serían condenadas o reprochables si fueran efectuadas por una persona real.
2.- En la medida que no tengamos mejores criterios, utilicemos más la analogía para ver que ocurre con otras creaciones o actuaciones del hombre que son o pueden ser peligrosas. Y apliquemos a quien desarrolla o pone en el mercado tentadores e irresponsables productos de IA sentimental criterios similares de responsabilidad y control a los que sufren otros profesionales, haciéndoles responsables de sus consecuencias derivadas. Si conforme a nuestras leyes los padres de los menores de edad responden de los actos de los menores en virtud de la llamada culpa in vigilando, ¿hay alguna razón o justificación para que, en tanto en cuanto los avatares no tengan capacidad para ser moral y patrimonialmente responsables, sean sus creadores quienes respondan de ellos. Quien juega a crear personas (virtuales) debería hacerlo con todas las consecuencias, respondiendo de esos nuevos hijos nacidos en las incubadoras de IA donde se engendran.
3.- Cuidemos la rectitud de intención, tan escasa y poco vigilada en nuestra sociedad, y exijamos que esa rectitud sea reflexionada y responsable, tratando de evitar que, disfrazadas de buenas y terapéuticas intenciones, se cuelen en el mercado ofertas de servicio virtual con serio riesgo para la salud o estabilidad humanas.
Confieso que me espanta todo lo que suena a prohibir y regular, pero admito que, en un mundo imperfecto con choque de valores, la coherencia y el paralelismo en su tratamiento con otras situaciones que, en esencia, son similares permite tener una base de actuación y una cierta seguridad para saber lo que se puede y no se puede hacer y las limitaciones y responsabilidades asociadas.
El próximo martes 9 de Abril, 2024 seguro que saldrán distintas visiones para estos complejos dilemas en los que, a mí, tras hacer todas estas reflexiones, sigo sintiendo insuficiencia de criterio para pronunciarme de forma concreta, surgiéndome muchas más preguntas que respuestas.
Nos vemos pronto conversando con un buen vino y buen jamón.
Fundador y Socio – THE WISE COMPANY
Aledra Legal
C/ Ayala, 11 – Madrid
Copyright © Forodeforos – Todos los derechos reservados