SAN FRANCISCO — Hace varios meses, Google contrató a decenas de actores para que se sentaran en una mesa, se pararan en un pasillo y caminaran por una calle mientras le hablaban a una videocámara.
Después, mediante un nuevo tipo de programa de inteligencia artificial, los investigadores de la empresa cambiaron los rostros de los actores. Las personas que habían estado caminando de pronto estaban en una mesa. Los actores que habían estado en el vestíbulo parecían estar en una calle. Pusieron los rostros de los hombres en los cuerpos de las mujeres y viceversa. Al final, los investigadores habían creado cientos de videos conocidos como “deepfakes” o ultrafalsos.
Con la creación de estos videos manipulados digitalmente, los científicos de Google creen que están aprendiendo a detectar ultrafalsos, motivo de preocupación para investigadores y legisladores, pues podrían convertirse en un nuevo método insidioso para divulgar desinformación antes de las elecciones presidenciales de 2020.
Para las compañías de internet como Google, encontrar las herramientas necesarias con el fin de detectar ultrafalsos se ha convertido en un asunto urgente. Si alguien quiere divulgar un video falso por todas partes, YouTube de Google o las plataformas de redes sociales de Facebook serían espacios ideales para lograrlo.
Imaginemos a una falsa senadora Elizabeth Warren, prácticamente indistinguible de la real, que se pelea con alguien a puñetazos en un video manipulado. O a un presidente Donald Trump falso que hace lo mismo. La tecnología capaz de fabricar estas artimañas se está acercando cada vez más a la realidad.
“Incluso con la tecnología actual, para algunas personas es difícil saber qué es real y qué no lo es”, comentó Subbarao Kambhampati, profesor de Informática de la Universidad Estatal de Arizona.
Los ultrafalsos —un término que en general describe videos modificados con inteligencia artificial de vanguardia— ya han puesto en duda nuestras suposiciones sobre lo que es real y lo que es mentira.
En meses recientes, las pruebas en video han sido esenciales en incidentes prominentes en Brasil, Gabón en África central y China. Cada caso se vio afectado por la misma pregunta: ¿el video es real? El presidente gabonés, por ejemplo, salió del país para recibir atención médica, y su gobierno publicó un video para demostrar que seguía con vida. Sus opositores afirmaron que se trataba de un video falso. Los expertos definen esta confusión como “el dividendo del mentiroso”.
“Ya se puede observar el efecto material que los ultrafalsos han tenido”, dijo Nick Dufour, uno de los ingenieros de Google que se encarga de la investigación sobre ultrafalsos de la compañía. “Han permitido que las personas afirmen que son falsas pruebas en video que de otra manera serían muy convincentes”.
Durante décadas, el software ha permitido que las personas manipulen fotografías y videos o creen imágenes falsas desde cero. Sin embargo, ha sido un proceso lento y meticuloso generalmente exclusivo de los expertos capacitados en la utilización de programas como Adobe Photoshop o After Effects.
Ahora, las tecnologías de inteligencia artificial están simplificando el proceso, reduciendo el costo, el tiempo y las habilidades necesarias para modificar imágenes digitales. Estos sistemas de IA aprenden por sí mismos cómo crear imágenes falsas analizando miles de imágenes reales. Eso significa que pueden manejar un porcentaje de la carga de trabajo que antes se les asignaba a técnicos capacitados. Y eso significa que la gente puede crear muchas más cosas falsas de lo que solían.
Las tecnologías utilizadas para crear ultrafalsos aún son bastante nuevas y los resultados a menudo son fáciles de detectar. No obstante, la tecnología está evolucionando. Aunque las herramientas usadas para detectar estos videos falsos también lo están haciendo, a algunos investigadores les preocupa que no puedan seguirles el ritmo.
Google hace poco señaló que cualquier académico o investigador corporativo podía descargar su colección de videos sintéticos y usarlos para construir herramientas que identifiquen ultrafalsos. La colección de videos básicamente es un catálogo de trucos digitales para computadoras. Analizando todas estas imágenes, los sistemas de IA aprenden cómo detectar el contenido falso. Facebook hace poco hizo algo similar, usando actores para crear videos falsos, los cuales después puso a disponibilidad de investigadores externos.
Los ingenieros de una empresa canadiense llamada Dessa, que se especializa en la inteligencia artificial, hace poco pusieron a prueba un detector de ultrafalsos que fue creado usando los videos sintéticos de Google. Podía identificar los videos de Google con una precisión casi perfecta. Sin embargo, cuando pusieron a prueba su detector en videos ultrafalsos sacados de internet, falló más del 40 por ciento de las veces.
Terminaron por solucionar el problema, pero solo después de crear su detector con la ayuda de videos encontrados “por ahí”, no creados con actores pagados, lo cual demuestra que un detector no sirve de nada si los datos utilizados para capacitarlo son deficientes.
La tecnología usada para crear ultrafalsos ha mejorado a un ritmo que sorprende a los expertos de IA, y hay pocos motivos para creer que frenará su velocidad. Los ultrafalsos deberían beneficiar uno de los pocos axiomas de la industria tecnológica que se han mantenido a lo largo de los años: las computadoras siempre se vuelven más poderosas y siempre hay más datos. Eso provoca que el llamado software de aprendizaje automático que ayuda a crear ultrafalsos sea más efectivo.
“Se está volviendo más fácil,y seguirá siendo así. No hay duda al respecto”, dijo Matthias Niessner, profesor de Informática en la Universidad Técnica de Múnich que está trabajando con Google en su investigación de ultrafalsos. “Esa tendencia continuará durante años”.
La pregunta es qué lado mejorará más rápido.
Los investigadores como Niessner están esforzándose por construir sistemas que puedan identificar automáticamente y eliminar ultrafalsos. Este es el otro lado de la misma moneda. Al igual que los creadores de ultrafalsos, los detectores de este contenido adquieren sus habilidades analizando imágenes.
Los detectores también pueden mejorar a gran velocidad. No obstante, eso requiere un flujo constante de datos nuevos que representen las técnicas más recientes de ultrafalsos usadas en todo el internet, señalaron Niessner y otros investigadores. Recolectar y compartir los datos adecuados puede ser difícil. Los ejemplos relevantes son pocos y, por motivos de privacidad y derechos de autor, las compañías no siempre pueden compartir datos con investigadores externos.
Aunque los activistas y artistas a veces publican ultrafalsos como una manera de demostrar cómo estos videos cambian el discurso político en línea, estas técnicas no se usan de manera generalizada para divulgar desinformación. En su mayor parte se usan para divulgar contenido humorístico o pornografía, de acuerdo con Facebook, Google y otros organismos que dan seguimiento al progreso de los ultrafalsos.
Ahora mismo, los videos ultrafalsos tienen imperfecciones sutiles que los sistemas automatizados pueden detectar fácilmente, o también pueden detectarse simplemente viéndolos. Sin embargo, algunos investigadores argumentan que la tecnología mejorada tendrá el poder suficiente para crear imágenes falsas sin esos pequeños defectos. Compañías como Google y Facebook esperan tener detectores confiables en vigor antes de que eso ocurra.
“A corto plazo, la detección será razonablemente eficaz”, dijo Kambhampati, el profesor de la Universidad Estatal de Arizona. “A largo plazo, creo que será imposible distinguir entre las imágenes reales y las falsas”.
*Copyright: c.2019 The New York Times Company