Distintos valores, otras leyes

El desarrollo de máquinas capaces de mostrar ciertas habilidades cognitivas se mantuvo ajeno al público general durante todo el siglo XX. Más presente en el mundo de la ciencia-ficción que en la realidad, no fue hasta el año 2012 que empresas, instituciones y gobiernos de todo el mundo se lanzaron a una carrera ciega por tener la IA más avanzada, postergando sine die una discusión rigurosa sobre qué significa avanzar. A fin de cuentas, los algoritmos de soporte a las patrullas policiales batían récords en número de detenciones exitosas[1], y las tasas de reconocimiento de objetos arrojaban resultados increíbles[2]. Parecía que la IA, entrenada a base de observar millones de registros previos, estaba ayudando al fin a encontrar patrones ocultos a nuestros ojos pero científicamente ciertos. Para muchos gobiernos se convirtió en una cuestión geopolítica, asumiendo que quien primero dominara la IA se llevaría todo el pastel.

 

Algunos sistemas de IA modernos, como el responsable de generar imágenes como ésta, han asombrado al mundo y refuerzan para muchos la idea de que quien logre la hegemonía en su desarrollo conseguirá ser la principal superpotencia del siglo XXI. Imagen conseguida usando un modelo Stable Diffusion.

Pero dicho pastel no era tan dulce como algunos pensaban. Cathy O’Neill, en su libro de 2016 “Weapons of Math Destruction”[1], puso de manifiesto algunos de los problemas inadvertidos inicialmente. Su investigación demostraba cómo ciertos sesgos como el racismo podían filtrarse subrepticiamente en los datos de entrenamiento y provocar que los algoritmos repitieran patrones indeseables cuando eran usados a gran escala (algo que hemos comentado en anteriores Catch.batches). La lista de problemas no ha hecho sino crecer con los años: incapacidad de muchos algoritmos para justificar sus decisiones[3]; creación de burbujas especulativas alrededor de la palabra IA; el monopolio de facto ejercido por ciertas empresas multimillonarias, únicas capaces de entrenar los modelos de IA más potentes; el enorme impacto ambiental necesario para el entrenamiento de dichos sistemas[4]; el miedo generalizado a que miles de empleos queden obsoletos

A día de hoy nadie discute la necesidad de auditar, controlar y asegurar unos estándares de calidad y seguridad, tanto para organizaciones como para usuarios, en sistemas que incorporen IA. Pero tampoco nadie conoce la manera correcta de hacerlo.

De la óptica depende el criterio

Estados Unidos juega un papel determinante a la hora de encauzar el futuro de la IA a nivel global. Históricamente EEUU ha sido un país con pocas trabas a la innovación y al emprendimiento. La administración Trump refrendó esta actitud en el campo de la IA, continuada luego por el gabinete de Biden. Sin embargo, escándalos como la utilización fraudulenta de datos en Facebook o el desvío de información relevante para la seguridad nacional a través de compañías extranjeras ha provocado que varios Estados tomen las riendas y busquen una legislación más proteccionista al respecto.

En el polo opuesto, China ha decidido trasladar sus ideas relativas a la armonía social a un cuerpo legislativo centrado en primar el bien colectivo y la seguridad institucional sobre los derechos individuales de los usuarios. Eso se traduce en la recopilación masiva de datos, aprovechando su inmenso capital humano. Especialmente visibles desde que el coronavirus irrumpió en nuestras vidas, hemos podido ver cómo desde las instituciones chinas han usado IA y Big Data para asegurar el cumplimiento de confinamientos estrictos o la lealtad al sistema político: sistemas de crédito social, modelos de potencial de contagio o reconocimiento facial son sólo algunos de los medios usados. Desde el mismo punto de vista del bien del colectivo, esta tecnología está siendo ampliamente usada por China para afrontar problemas como la reforestación[5] o la contaminación atmosférica[6].

La Unión Europea y el Reino Unido se encuentran en una balanza fácilmente criticable, pero en sintonía con un sistema de creencias en el cual el valor del individuo como fin en sí mismo no se cuestiona, y la justicia y la igualdad se consideran metas irrenunciables. Tras la Ley General de Protección de Datos, la Unión Europea espera llevar a votación el año que viene el Artificial Intelligence Act, en la cual se distinguen tres niveles de peligrosidad para las aplicaciones basadas en IA:

  • El primer nivel implica prohibir aquellas que conllevan riesgos inasumibles para la ciudadanía, como los sistemas de crédito social o el reconocimiento facial en tiempo real.
  • Servicios que hagan uso de datos biométricos (como la voz o el imágenes offline de rostros) deberán someterse a auditorías regulares, y ser capaces de proporcionar explicaciones convincentes acerca de las decisiones tomadas.
  • Por último, aquellos usos orientados al marketing o a los videojuegos no tendrían que someterse a ningún escrutinio. Algo sorprendente, considerando la importancia del marketing en campañas de desprestigio, fake news o en esfuerzos por polarizar la sociedad.
 

Pero no es oro todo lo que reluce, y se alzan voces críticas con parte de la hipocresía de los gobiernos europeos, al imponer una legislación que ellos mismos no parecen estar dispuestos a cumplir. El uso de cámaras con reconocimiento facial en tiempo real en Reino Unido, o el empleo de drones para detectar posibles engaños al fisco relativos al patrimonio en Francia incumplen claramente con el derecho a la privacidad del individuo, y suponen un amargo reproche a los esfuerzos institucionales.

El problema de la ética y los algoritmos

Cada criterio de los arriba comentados encarna en cierto modo la manera de pensar, la ética, la moral, la historia, los usos y costumbres de su sociedad. A falta de una ética universal, cada jugador terminará evolucionando por un camino diferente, lo cual no es necesariamente malo ya que aporta diversidad de opiniones. La verdadera lástima al respecto es que los actores involucrados estén más orientados a la competición y al enfrentamiento que a la cooperación.

Existe no obstante un problema común a todos ellos: la cada vez menor formación de los especialistas técnicos en humanidades, y viceversa. Ni los desarrolladores de IAs pueden seguir ajenos a las implicaciones filosófico-sociales de su trabajo, ni puede el resto confiar ciegamente en el poder de los números. La ciencia se alimenta de interpretaciones de los resultados, y rara vez existe una única conclusión válida. Entender el aspecto técnico desde la filosofía o las ciencias sociales arroja una luz nueva e imprescindible a la discusión sobre el uso de IAs, máxime ahora que lo que está en juego es el futuro de nuestras sociedades.

Referencias

[1]: O’Neill, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy (1st ed.). Random House LCC US.

[2]: Redmon, J., Divvala, S., Girshick, R., & Farhadi, A. (2015). You Only Look Once: Unified, Real-Time Object Detection. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2016-December, 779–788. https://doi.org/10.48550/arxiv.1506.02640

[3]: Lipton, Z. C. (2018). The Mythos of Model Interpretability. Queue, 16(3), 31–57. https://doi.org/10.1145/3236386.3241340

[4]: Strubell, E., Ganesh, A., & McCallum, A. (2020). Energy and Policy Considerations for Modern Deep Learning Research. Proceedings of the AAAI Conference on Artificial Intelligence, 34(09), 13693–13696. https://doi.org/10.1609/AAAI.V34I09.7123

[5]: Hasan, S. S., Zhang, Y., Chu, X., & Teng, Y. (2019). The role of big data in China’s sustainable forest management. Forestry Economics Review, 1(1), 96–105. https://doi.org/10.1108/FER-04-2019-0013

[6]: Zhang, B., Hughes, R. M., Davis, W. S., & Cao, C. (2021). Big data challenges in overcoming China’s water and air pollution: relevant data and indicators. SN Applied Sciences, 3(4), 1–9. https://doi.org/10.1007/S42452-021-04448-0/TABLES/2

Compartir :
Compartir en facebook
Compartir en twitter
Compartir en linkedin

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

¿Alguna pregunta?

Para más información sobre lo que hacemos, ponte en contacto con nosotros.