En mayo, un video apareció en Internet de Donald Trump ofreciendo consejos al pueblo de Bélgica sobre el tema del cambio climático. «Como saben, tuve las pelotas de retirarme del acuerdo climático de París», dijo, mirando directamente a la cámara, «y ustedes también deberían».
El video fue creado por un partido político belga, Socialistische Partij Anders, o sp.a, y publicado en Twitter y Facebook de sp.a. Provocó cientos de comentarios, muchos de los cuales expresaban su indignación por el hecho de que el presidente estadounidense se atreviera a influir en la política climática de Bélgica.
La figura de Donald Trump
Una mujer escribió: «Humpy Trump necesita mirar a su propio país con sus asesinos de niños trastornados que acaban con las armas más pesadas en las escuelas». Otro agregó: «Trump no debería volar tan alto desde la torre porque los americanos son tan tontos».
Sp.a afirmó que habían encargado a un estudio de producción que hiciera una «falsificación profunda»: una réplica generada por ordenador de una persona, en este caso Trump, diciendo o haciendo cosas que nunca han dicho o hecho.
La intención de Sp.a era utilizar el video falso para captar la atención de la gente, y luego redirigirla a una petición en línea en la que se pedía al gobierno belga que tomara medidas climáticas más urgentes. Los creadores del vídeo dijeron más tarde que asumieron que la mala calidad de la falsificación sería suficiente para alertar a sus seguidores de su falta de autenticidad. «Está claro por los movimientos de los labios que este no es un discurso genuino de Trump», dijo a Politico un portavoz de sp.a.
El poder de las noticias falsas
El equipo de comunicaciones del partido había subestimado claramente el poder de su falsificación, o quizás sobreestimado la sensatez de su audiencia. De cualquier manera, este pequeño partido político de izquierdas, quizás sin saberlo, había proporcionado un ejemplo profundamente preocupante del uso de vídeo manipulado en línea en un contexto explícitamente político.
Fue una demostración a pequeña escala de cómo esta tecnología podría ser usada para amenazar nuestro ya vulnerable ecosistema de información – y quizás socavar la posibilidad de una realidad confiable y compartida.
Ahora se pueden crear vídeos falsos utilizando una técnica de aprendizaje automático llamada «red de confrontación generativa» o GAN. Un estudiante de postgrado, Ian Goodfellow, inventó las GAN en 2014 como una forma de generar algorítmicamente nuevos tipos de datos a partir de los conjuntos de datos existentes. Por ejemplo, una GAN puede mirar miles de fotos de Barack Obama y luego producir una nueva foto que se aproxime a esas fotos sin ser una copia exacta de ninguna de ellas, como si se tratara de un retrato completamente nuevo del ex presidente que aún no se ha tomado. Las GAN también pueden utilizarse para generar nuevo audio a partir de audio existente, o nuevo texto a partir de texto existente; se trata de una tecnología multiuso.
El uso de esta técnica de aprendizaje automático se limitó principalmente a la comunidad investigadora de la IA hasta finales de 2017, cuando un usuario de Reddit que se hacía llamar «Deepfakes» -un portamento de «deep learning» y «fake»- comenzó a publicar vídeos pornográficos alterados digitalmente. Estaba construyendo GANs usando TensorFlow, el software gratuito de código abierto de Google para el aprendizaje de máquinas, para superponer los rostros de las celebridades en los cuerpos de las mujeres en las películas pornográficas.
Varios medios de comunicación informaron sobre los vídeos pornográficos, que se conocieron como «falsificaciones profundas». En respuesta, Reddit los prohibió por violar la política de contenido del sitio contra la pornografía involuntaria. En esta etapa, sin embargo, el creador de los vídeos había lanzado FakeApp, una plataforma fácil de usar para crear medios falsificados. El software libre democratizó efectivamente el poder de las GAN. De repente, cualquiera con acceso a Internet y fotos de la cara de una persona podría generar su propia falsificación profunda.
Violación de derechos personales
Cuando Danielle Citron, profesora de derecho en la Universidad de Maryland, se enteró por primera vez de la existencia de las películas pornográficas falsas, al principio se sorprendió de lo visceralmente que violaban el derecho a la privacidad de estas mujeres. Pero una vez que empezó a pensar en falsificaciones profundas, se dio cuenta de que si se extendían más allá de los trolls de Reddit podrían ser aún más peligrosos. Podrían convertirse en armas de manera que se debilite el tejido de la propia sociedad democrática.
«Empecé a pensar en mi ciudad, Baltimore», me dijo. «En 2015, el lugar era un polvorín después del asesinato de Freddie Gray. Así que empecé a imaginarme lo que habría pasado si el jefe de policía hubiera dicho algo profundamente racista en ese momento. El lugar habría explotado.»
Citron, junto con su colega Bobby Chesney, comenzó a trabajar en un informe que describe el alcance del peligro potencial. Además de considerar la amenaza a la privacidad y la seguridad nacional, ambos estudiosos se preocuparon cada vez más de que la proliferación de falsificaciones profundas pudiera erosionar catastróficamente la confianza entre las diferentes facciones de la sociedad en un clima político ya polarizado.