Si crees que las noticias falsas son un problema, espera a que te enfrentes a la tecnología “deepfake”
Investigadores de la Universidad de Washington aprendieron a generar videos de Obama a partir de su voz y material de archivo.
Los videos “deepfake” creados con inteligencia artificial pueden literalmente poner palabras en boca de la gente
Recientemente, me mostraron docenas de pequeñas imágenes de Donald Trump, algunas reales, otras creadas digitalmente. Me resultó imposible distinguir unas de otras. Cuando me pidieron que escogiera tres que posiblemente fueran falsas, sólo elegí una correctamente.
El ejercicio fue una introducción a la amenaza de seguridad inminente de la tecnología “deepfake”, un proceso de imitación de patrones del habla y de imágenes realizado con inteligencia artificial para crear realidades alternativas, en las que alguien parece estar diciendo o haciendo cosas que nunca dijo o hizo.
En su forma más simple, las imitaciones “deepfake” se crean dándole instrucciones a una computadora y alimentándola con imágenes y audio de una persona para enseñarle a imitar la voz de esa persona (y posiblemente mucho más). Ya hay una aplicación para hacerlo: FakeApp (y vídeos tutoriales sobre cómo usarla) y una comunidad digital subterránea que superpone caras de celebridades sobre las imágenes de actores en videos pornográficos.
Actualmente las producciones “deepfake” son imperfectas y pueden detectarse, pero la tecnología está progresando rápidamente. Dentro de dos o tres años tal vez veamos vídeos y discursos sin poder detectar si son reales o fabricaciones.
En un fascinante estudio, los investigadores de la universidad de Washington aprendieron a generar vídeos de Barack Obama a partir de su voz y material de archivo. La forma de la boca del expresidente estadounidense fue modelada para crear un “Obama sintético”. En la Universidad de Stanford, los investigadores han manipulado la rotación de la cabeza, la mirada y el parpadeo de los ojos, produciendo vídeos generados por computadora que son difíciles de distinguir de la realidad.
La tecnología podría hacer maravillas para la edición y producción de películas y para la realidad virtual. En un futuro no muy lejano, el doblaje podría transformarse: los actores mexicanos en una telenovela hablarán inglés (o chino o ruso) y tendrán un aspecto más auténtico. En el ámbito de los negocios y los asuntos mundiales, la tecnología podría romper la barrera del idioma en las llamadas de videoconferencia traduciendo lo que se está diciendo y al mismo tiempo alterando los movimientos faciales y bucales para que parezca que todos están hablando el mismo idioma.
Pero también hay que considerar los posibles abusos, por individuos o agentes estatales empeñados en difundir información errónea. La tecnología “deepfake” podría poner palabras y expresiones en la cara y la boca de un político e influir en unas elecciones. Los vídeos podrían fabricar una amenaza y provocar una crisis política o un incidente de seguridad. “Si nos basamos en los últimos años, los vídeos falsos se desplegarán cada vez más para avanzar las agendas políticas”, dice Yasmin Green, directora de investigación y desarrollo de Jigsaw, el grupo de expertos de Alphabet. “En el pasado, los esfuerzos de este tipo no eran técnicamente sofisticados y, por lo tanto, se podían desacreditar fácilmente, pero la tecnología se está desarrollando más rápidamente que nuestra comprensión de la amenaza que plantea”.
Ya hemos visto evidencia del problema. En mayo del año pasado, la agencia de noticias de Qatar y sus cuentas de redes sociales fueron pirateadas y se le atribuyeron declaraciones al emir que desencadenaron una disputa diplomática. Los vecinos de Qatar usaron los comentarios para justificar un boicot económico del emirato. “El episodio de Qatar mostró la intención de usar las falsificaciones para seguir agendas políticas”, dice la Sra. Green. “Imagínense si tuvieran las capacidades para crear imitaciones “deepfake’”.
Recientemente, antes de las elecciones locales en Moldavia, se publicó un video de un segmento de noticias de Al Jazeera en la página de Facebook de la red con subtítulos en rumano. Afirmaba que se trataba de la propuesta de un candidato a la alcaldía de alquilar una isla a los Emiratos Árabes Unidos. Fue una fabricación, pero el vídeo se volvió viral.
El daño de las actuales noticias falsas palidece en comparación con el daño que podría provenir de las falsificaciones “deepfake”. A Aviv Ovadya, tecnólogo jefe del Centro para la Responsabilidad de las Redes Sociales de la Universidad de Michigan, le preocupa que los profundos fraudes no sólo convencerán a la gente de cosas que no son reales, sino que también socavarán la confianza de las personas con respecto a lo que realmente es cierto. “Esto impactará todo en nuestra sociedad, desde el Estado de derecho hasta cómo se realiza el periodismo”, dice.
Las agencias de inteligencia y los departamentos de defensa están muy conscientes de los avances en los vídeos generados por computadora (y posiblemente ya estén realizando sus propias investigaciones). Algunos de los principales investigadores en el campo también están buscando soluciones de detección, al igual que las compañías de tecnología y los gobiernos.
Espero que encuentren una forma de controlar este problema más rápidamente de lo que lo hicieron cuando se trataba de detectar y descartar las noticias falsas.