Cada vez somos más conscientes de que Internet, además de brindarnos posibilidades, entraña muchos riesgos: adicción, falta de privacidad, diseminación de odio, etc. Charlamos con la filósofa hispano-mexicana Carissa Véliz, profesora asociada en la Universidad de Oxford, sobre el deber de regular el sector tecnológico al igual que se hizo con otros, y las consecuencias de no hacerlo. En su último libro, ‘Privacidad es poder’ (Debate, 2021), Véliz plantea cómo individuos, Estados y compañías saldrían ganando.
-En ‘Privacidad es poder’, que The Economist eligió como libro del año, propone el fin de la economía de los datos. ¿Eso no es como querer deshacer la globalización? ¿Se puede revertir este proceso?
Claro que sí. No es ni revertir la tecnología ni la globalización ni nada de eso. De hecho, para un usuario corriente no cambiaría mucho. Simplemente es no vender ni comprar datos personales, que es muy diferente de no usarlos o de no usar tecnología digital. Son dos cosas muy diferentes, pero las tecnológicas tienen un gran interés en que parezcan lo mismo. A Facebook le conviene mucho que pensemos que si no tiene nuestros datos la tecnología se viene abajo y nada funciona. Pero para Facebook nuestros datos son una manera de financiarse. No es una manera de desarrollar la tecnología o de usarla. Lo que planteo es simplemente cambiar la tecnología para que respete los derechos que teníamos antes de que ella llegara.
-¿Eso es factible?
Suena radical, pero en realidad no es nada radical. Lo radical es asumir que es normal un modelo de negocio que depende de la violación sistemática y masiva de derechos y que es súper tóxico para la sociedad. En 2013 Google ya era una empresa exitosa y enorme y un artículo en Forbes calculó que lo que ganaba era 10 dólares al año por usuario. Para la mayoría de usuarios pagar 10 dólares al año a Google por tener el buscador, los mapas y su correo no sería un gran sacrificio, de manera que no hay ninguna razón por la que tengan que vender y comprar datos personales.
-¿Cómo se puede disuadir a las empresas globales de usar los datos con las distintas regulaciones que hay en el mundo? Porque Europa, EEUU y Asia no tienen en absoluto la misma relación filosófica ni legal con la privacidad.
El efecto Bruselas es brutal porque a las empresas no les conviene tener dos sistemas, ya que es más complicado. Y además se sienten fatal si tratan bien a los europeos y mal a los americanos. La GDPR [el nuevo Reglamento General de Protección de Datos de la Unión Europea] ha tenido un efecto brutal en las empresas y sobre la legislación en muchas partes del mundo. China la ha copiado. A cualquier estado le conviene tener seguridad nacional y este sistema de tener datos por doquier es muy peligroso para la seguridad nacional. Necesitamos un mayor esfuerzo de diplomacia, un nuevo Bretton Woods para los datos, una nueva declaración de los derechos humanos en la era digital, y para esto necesitamos la cooperación de Estados Unidos. Es urgente que EEUU saque una ley federal de privacidad y creo que es cuestión de tiempo, pero incluso si no lo hiciera, como europeos podemos tener un gran impacto sobre la legislación en el mundo. Se suele pensar en que tienes poder porque tienes la tecnología o el dinero, pero otra forma de pensar en el poder es regular.
-¿Qué influencia está teniendo China y su modelo de internet autoritario y de vigilancia en el resto del mundo?
Eso es algo que me asusta bastante porque están uniendo la tecnología al autoritarismo y no es casual. La tecnología no es neutral: siempre tiene ciertos apriorismos y objetivos. Una tecnología de vigilancia siempre lleva al control. Vigilas para controlar. Lo que me asusta es que Occidente, en vez de decir que ese modelo de China es aterrador y que hay que correr en dirección contraria, muchas veces intenta imitarlos y ganarles en su propio juego. Pero ganar a una dictadura en su propio juego es una carrera moral hacia el fondo.
-Tras varios escándalos por violación de la privacidad de sus usuarios, el año pasado Tik Tok dijo que todas las empresas deberían divulgar sus algoritmos. ¿Realmente eso supone más transparencia?
De momento no tenemos nada claro qué es eso de la transparencia. Tú me puedes dar el código de un algoritmo y para mí no significa nada. Incluso si se lo das a un programador, son miles de líneas de código. Creo que por ahí no va. Va más por la capacidad de auditar y sobre todo algo que los algoritmos deberían pasar un test de control aleatorio. Es absurdo que para las medicinas, ni siquiera en tiempos de pandemia y emergencia, estamos dispuestos a usar una vacuna que no haya pasado por un test riguroso, pero con un algoritmo, nada. Y un algoritmo puede ser tanto o más destructivo que un mal medicamento. La única manera de saber cuáles son los efectos de un algoritmo es testándolo en el mundo real, no en un laboratorio con datos limitados. Necesitas saber hasta qué punto la realidad que se está creando es producto del algoritmo. Los algoritmos dicen predecir cosas pero a veces crean la realidad que dicen predecir.
-Usted propone regular los datos personales igual que regulamos otras sustancias tóxicas como el amianto. ¿La UE está haciendo todo lo que puede y debe en materia regulatoria?
Ni una cosa ni otra. La realidad es mucho más compleja. He visto muchos esfuerzos perdidos. Por ejemplo, la Carta de Derechos Digitales era una idea muy bonita y me habría gustado que realmente fuera normativa, que introdujera algo nuevo. Pero simplemente se repitió una mínima parte del GDPR, con lo cual no aporta nada nuevo. Este es un ejemplo de algo que suena muy bonito, pero que no aporta. Hay mucho politiqueo y pérdida de tiempo, pero también conozco a gente que está muy preocupada por esos temas y que está haciendo todo lo posible por empujar en el camino adecuado y se han tomado pasos importantes. Sin duda y con diferencia, Europa es el mejor sitio del mundo para estos temas. Y los estados que están haciendo esfuerzos por mejorar la regulación de algoritmos son rompedores. El GDPR es una legislación muy limitada con muchos errores. No porque los legisladores sean poco inteligentes y no supieran lo que iba a pasar, sino porque hacían todo lo que podían pero estaban recibiendo una presión terrible de las empresas. Cuando yo empecé a trabajar en privacidad, algo como la GDPR parecía imposible. Así que para su momento histórico fue un hito y lo mejor que pudimos tener. Ahora está claro que no es suficiente y que hay que dar otros pasos, pero en ese momento no se podían dar por las presiones. Ahora estamos en un sitio parecido: se habla de regular los algoritmos y de prohibir el reconocimiento facial, por ejemplo, y la recolección de datos biométricos, y hay también mucha presión, y así se va avanzando. Tres pasos hacia delante, dos hacia atrás.
-Parece que estamos usando la tecnología sin protegernos, como cuando en los años 80 íbamos en coche sin cinturón de seguridad. ¿Habrá una reacción inversa, pendular, de rechazo hacia plataformas como Facebook igual que lo hubo hacia las tabacaleras?
Ya la está habiendo. Y la de los automóviles es una buena analogía porque la industria odiaba la idea de un cinturón de seguridad e hizo todo lo posible por evitarlo. Decían que era horrible, incómodo, caro, que la gente iba a estar desesperada. Y en realidad fue muy bueno para la industria automovilística porque la gente quiere sentirse segura. Y nos parece mucho mejor coger el coche y no sentir que nos vamos a matar. Creo que hay algo de eso: las tecnológicas se están resistiendo a algo que es inevitable y que si lo vieran con más perspectiva podría beneficiarles. Por otra parte, está habiendo un rechazo social tanto de los gobiernos como de la gente. Hace 10 años la gente presumía de trabajar en Facebook. Hoy no, y muchas veces incluso lo esconden. Fue como los banqueros. Se veían como gente muy bien vestida y luego vino la crisis… Yo lo noto con mis estudiantes. Antes era muy común que la gente dijera que se moría por trabajar en Google y hoy no tanto, te dicen que están valorando otras opciones.
-¿Hay alguna forma de frenar algo que los individuos quieren usar sin caer en conductas dictatoriales como censurar a una empresa?
En realidad no es tan difícil. Muchas veces hay alternativas y estamos acostumbrados a decir que todo es lo mismo y que no se puede cambiar nada y darnos por vencidos sin tan siquiera intentarlo. Facebook ha dicho durante años que los usuarios estamos encantados de darle nuestros datos, que es una opción que tenemos. Ahora resulta que cuando Apple le da realmente la opción a la gente de decidir si quiere ceder sus datos, el 95 por ciento dice que no. No es una disyuntiva entre si preferimos usar tecnología o no, sino entre si preferimos usar un sistema de mensajería como Whatsapp, que vende nuestros datos y puede usarlos en nuestra contra porque por esos datos quizás nos rechaza una aseguradora, o en un puesto de trabajo, o un sistema como Signal, que funciona igual y no vende nuestros datos. A la gente no le gusta que se aprovechen de ella.
_________________________________________________________________________________________________