El video de Obama diciendo que "Donald Trump es un completo idiota" acumula más de 5 millones de visitas en YouTube. En la imagen se lo oye y va al ex presidente de Estados Unidos diciendo esa frase y otras tantas que en realidad nunca salieron de su boca.
Se trata de un clip que fue creado por el actor y guionista Jordan Peele a través de su productora MonkeyPaw Production, con el objetivo de concientizar sobre lo fácil que puede ser manipular contenido multimedia para engañar a la gente.
El video, que fue difundido por BuzzFeed en abril de este año, se hizo utilizando Adobe After Effects y una herramienta llamada FakeApp que permite hacer intercambios de rostros, y que fue utilizada hace varios meses para crear falsos videos pornos de celebridades.
"Son tiempos peligrosos. Tenemos que estar más atentos a lo que confiamos en internet. Son tiempos en que tenemos que recurrir a medios de noticias fiables", dice Peele en el video.
La inteligencia artificial tiene muchos beneficios, pero de la mano de esta tecnología también llegan desafíos. Desde que se publicó ese clip hasta ahora surgieron nuevas formas de engaño cada vez más refinadas y difíciles de identificar.
Una herramienta automática para crear videos falsos
Investigadores de la Universidad Carnegie Mellon diseñaron una herramienta que adapta de manera automática un video para que adquiera la apariencia o estilo de otro. Así, es posible hacer que una persona se convierta en otra, que baile o que diga un texto que no es suyo.
Esta herramienta, que puede ser muy útil para producir o editar películas con mayor rapidez, también se puede emplear para crear videos deep fake, tal como se llama a estos clips transformados con inteligencia artificial y que generan un resultado falso que es muy difícil de identificar.
La tecnología detrás de este desarrollo
La plataforma que diseñaron los investigadores se basa en redes generativas antagónicas (GAN, por sus siglas en inglés). Este revolucionario sistema fue desarrollado por Ian Goodfellow y ha tenido muchos usos desde ese entonces.
Hace poco más de un mes, Infobae entrevistó a Goodfellow, en la oficina central de Google en Mountain View, que es donde ahora trabaja y en ese entonces explicó el funcionamiento de estas redes neuronales. "Son dos redes que compiten entre ellas, y mientras compiten, están forzadas a mejorar en el juego al que juegan. Una de las redes es el generador y es el que crea las imágenes o cualquier otro dato que se quiera crear; y la otra red es el discriminador: mira una imagen y trata de adivinar si se trata de una imagen real, que viene de los datos de entrenamiento, o de una imagen falsa que viene del generador", detalló en aquel entonces.
Esta competencia entre las dos redes hace que el sistema produzca cada vez resultados más parecidos a la realidad, con mayor nivel de detalle y precisión. Y esto puede ser muy beneficioso, por ejemplo, a la hora de diseñar muebles, o crear voces de asistente virtuales, pero puede ser un problema si se usa para generar videos con el fin de manipular datos o distribuir información falsa.
Los desafíos y una herramienta para identificar deep fakes
La tecnología no es buena ni mala. Como siempre, depende del propósito con el cual se utilice. En este caso, esta herramienta propone un desafío que requiere el desarrollo de nuevas herramientas para combatir los deep fakes. Y eso es lo que está ocurriendo.
En agosto el Departamento de Defensa de Estados Unidos creó una herramienta para identificar videos falsos generados con inteligencia artificial. Este sistema se desarrolló en base a herramientas forenses que se utilizan en la actualidad.
Seguramente será una de las tantas plataformas que irán surgiendo en el tiempo para poder detectar estos clips falsos que parecen cada vez más reales. La contienda entre falsificadores y detectives seguramente seguirá sofisiticándose cada vez más.
MÁS SOBRE ESTE TEMA:
Falsos y exitosos: 8 videos virales en YouTube que fueron parte de un engaño
Quién es el científico que lidera la revolución creativa de las máquinas