En el laberinto de los algoritmos

Con apenas 13 años de existencia, hay quienes lo definen como uno de los mayores instrumentos potenciales de radicalización del siglo XXI. YouTube, la segunda página web más visitada en el mundo por detrás de Google –su dueño-, consigue 5 billones de visualizaciones diarias de sus vídeos… pero las imperfecciones de su algoritmo ya están pasándole factura.

Cuando uno ve un vídeo de YouTube, en una columna a la derecha de la pantalla le aparecen recomendaciones de otros contenidos supuestamente relacionados. El problema es que las recomendaciones son cada vez más extremas. Así lo comprobó una columnista del New York Times, Zeynep Tufekci, cuando intentaba verificar una cita de Donald Trump: de pronto empezaron a aparecerle en la columna de la derecha contenidos supremacistas, personas que negaban el Holocausto y otros radicales. Tufekci se creó un perfil diferente y buscó vídeos sobre el candidato demócrata en 2016 Bernie Sanders. Las recomendaciones se dirigieron hacia las teorías conspiracionistas (agencias del gobierno detrás de los ataques del 11S, etc). Como en una cámara de eco cada vez más extrema, a la periodista se le iban proponiendo contenidos cada vez más radicales.

El algoritmo no distingue matices cruciales. A mediados de febrero, cuando Estados Unidos se despertaba con una nueva masacre en un centro escolar, esta vez en Parkland, Florida, YouTube difundió imágenes de lo ocurrido sin diferenciar metraje real de montajes con actores. Algunos de esos vídeos se convirtieron en top trending, los más populares. Uno de ellos registró más de 200.000 visitas antes de ser desactivado. Había sido compartido decenas de miles de veces.

YouTube no es el único. A Google y a Facebook se les acusa de prácticas similares. Sus algoritmos –fórmulas secretas que tantos beneficios les reportan- pueden escanear la información que aparece asociada a un vídeo o una imagen y vetar términos ilegales o impropios. Pero no hasta el punto de poder determinar si un contenido es un montaje falso, interesado o abusivo. La preocupación en Estados Unidos ha llegado al Comité de Inteligencia del Senado. “Creo que por desgracia la proliferación y difusión de esos vídeos que atacaban a las víctimas del tiroteo en Parkland son un indicador bastante claro de que a las empresas tecnológicas todavía les queda un largo camino por recorrer en la gestión de este problema”, señalaba Adam B. Schiff, el miembro del partido demócrata con mayor rango en ese comité.

Por mucho que los gigantes tecnológicos hayan contratado a miles de humanos para vigilar el contenido, es imposible llegar a todo lo que se produce al día en las plataformas –en el caso de YouTube, 400 horas de vídeo por minuto, según datos de febrero de 2018-.

“La industria tecnológica se ha metido en un hoyo con esto de las capacidades de la Inteligencia Artifical (que en la mayoría de los casos es principalmente el aprendizaje automático –machine learning-). El aprendizaje automático a alto nivel es simplemente proporcionarle a la máquina un montón de datos, contarle cuáles son algunos de los datos y luego reconocer los patrones que identifican esos datos”, explicaba Dare Obasanjo, un experto del sector, en la reputada revista Medium.

Por ejemplo, para distinguir a un árbitro de los jugadores en un partido, explicaba Obasanjo, se le especifica al algoritmo de aprendizaje automático que los árbitros llevan camiseta de rayas. Sin embargo, ¿qué pasa si en un encuentro uno de los equipos también viste de rayas? Las excepciones solo pueden gestionarse alimentando a la máquina con más datos.

Por esto, entre otras cosas, estas plataformas son un gran coladero para los bulos, los montajes y las noticias falsas. La prueba más visible la encontramos en la documentada injerencia rusa en las últimas elecciones estadounidenses. Facebook y Twitter tuvieron que cerrar varios centenares de perfiles falsos creados especialmente para sembrar rumores sobre Hillary Clinton. Al parecer esos perfiles se crearon desde una empresa rusa ligada al Kremlin que compró unos 100.000 anuncios anti-Clinton.

La realidad es que, hoy esos gigantes almacenan el suficiente volumen de datos de sus usuarios como para, al cruzarlos, determinar si corren el riesgo de heredar un cáncer o de dejar de pagar su hipoteca. Pero todavía no consiguen saber si un contenido persigue desestabilizar un país.

Back To Top