El peligroso fenómeno de los deepfakes afecta principalmente a las mujeres, según un estudio

A través de un software, en pocas horas cualquiera puede manipular lo dicho por una persona a partir de un video falso. Este fenómeno se extiende cada vez más en la sociedad y tiene como principal víctima al género femenino. Los casos más resonantes

El 96% de los deepfakes son porno y sus víctimas son mujeres (Shutterstock)

El fenómeno de los deepfakes, o videos adulterados, está presente en un gran porcentaje en la industria pornográfica y en las venganzas porno de la web. Pero también hace estragos en la política, sobre todo en las campañas electorales, como así también sucede en el mundo del espectáculo, donde varios famosos han sido víctimas de producciones audiovisuales realizadas con el afán de dañar la imagen y honor de las personas. En el otro extremo están los humoristas, quienes toman esta tecnología para hacer imitaciones hiperrealistas.

El dato es impactante: el 96% de los videos falsos en línea son pornográficos. Esta información surge a partir de un estudio realizado por Deeptrace, una empresa de ciberseguridad con sede en Holanda. Según aclaran, estas publicaciones recibieron más de 134 millones de visitas.

Asimismo se específica en este informe que estas producciones audiovisuales maliciosas muestran en la totalidad de los casos a mujeres. Según informaron, encontraron 20 comunidades de creadores de videos adulterados con casi 100.000 miembros repartidos en diversos sitios porno falsos.

Pero, ¿qué es el fenómeno deepfake?

Se trata de un sistema de aprendizaje automático por el cual se logran generar a partir de fotos o videos nuevos contenidos en donde se altera el contenido original. ¿Cómo lo hacen? A través de Inteligencia Artificial y Big Data.

El gráfico muestra cómo se distribuye la difusión de videos adulterados tanto en YouTube como en sitios porno, por género y por país en donde se suben estos contenidos (Deeptrace)

Deeptrace explicó que desde febrero del año pasado se han abierto una serie de sitios dedicados al porno falso y los cuatro sitios principales cuentan con más de 134 millones de visitas.

Si bien la Argentina declara a partir de la Ley 27078 de interés público “el desarrollo de las tecnologías de la información y las comunicaciones, las telecomunicaciones, y sus recursos asociados, estableciendo y garantizando la completa neutralidad de las redes”, no existe regulación respecto a los videos adulterados o deepfakes.

Según Mutale Nkonde, académica analista e investigadora de políticas de Inteligencia Artificial (IA) de la Universidad de Harvard, “a medida que los videos generados por IA difunden la desinformación, las nuevas empresas y los académicos luchan por mantenerse un paso adelante”.

“Hace unos años, los “deepfakes” eran una novedad, creada por codificadores aficionados, mientras que hoy en día, se comercializan cada vez más como otro servicio disponible para aquellos con incluso un poco de efectivo disponible”, afirmó en un artículo del Financial Times.

En el mundo hay antecedentes de leyes que prohíben los deepfakes: Marc Berman, gobernador de California, Estados Unidos, firmó a principios de octubre la legislación AB 730 que declara ilegal la creación y distribución de videos, imágenes o audios de políticos manipulados que busquen parecerse a imágenes reales.

Los cuatro principales sitios web pornográficos recibieron en el último año más de 134 millones de visitas (Shutterstock)

A su vez, este funcionario promulgó el proyecto de ley AB 602, que permite a los residentes de este estado poder presentar una demanda si su imagen se usa para contenido sexualmente explícito. La legislación permite a las víctimas “solicitar medidas cautelares y recuperar lo gastado en honorarios abogados”.

Hany Fardi, profesora de la Universidad de California, Berkeley, estudió durante varias décadas la manipulación digital. Para ella, el mero riesgo de una falsificación profunda denuda el principio más básico de la humanidad, ¿podemos creer lo que vemos? “En enero de 2019, las falsificaciones profundas contenían errores importantes, y nueve meses después, nos encontramos ante una verosimilitud tal, nunca vi semejante velocidad a la hora de perfeccionar la técnica como lo vienen haciendo, y esto es solo la punta del iceberg”, advirtió Farid.

Deepfakes y Fake News

Los deepfakes, según Reverso, el primer proyecto periodístico colaborativo de la Argentina contra la desinformación, son piezas audiovisuales producidas con Inteligencia Artificial que crean imágenes que no sucedieron en la realidad.

Sus creadores utilizan sofisticadas técnicas de edición de video, que se valen de la IA, para crear situaciones de aparente realismo, pero que son falsos.

El 96% de los videos falsos en línea son pornográficos. El dato surge a partir de un estudio realizado por Deeptrace (Shutterstock)

En la era de la desinformación nos vemos obligados a prestar cada vez más atención al contenido que consumimos y sobre todo que compartimos. Las piezas audiovisuales son cada vez más convincentes, y con la calidad de estos videos mejorando minuto a minuto, tanto las empresas como las personalidades públicas, políticos, y personas comunes y corrientes se ven amenazados.

El comediante estadounidense Jim Meskimen imitó en un video de poco más de 2 minutos a más de 20 personalidades vinculadas al mundo del espectáculo y la política, valiéndose del deepfake.

Deepfake (@jimrossmeskimen) (@Shamook)

Las posibilidades son infinitas. De ahí surge su principal peligro: al permitir crear, recrear, inventar contenido y sobre todo manipular lo dicho por una persona, es utilizado con frecuencia en el mundo de las fake news.

Ahora bien, el video del comediante Meskimen nos abre la puerta para analizar otros posibles usos de esta herramienta. ¿Podrían utilizar los imitadores el deepfake para que sus actuaciones sean copias fieles de las personalidades que imitan?

Jennifer Lawrence - Steve Buscemi sobre sus amas de casa favoritas - Deepfake

La respuesta parecería estar en formato de video. Fue así como Meskimen combinó su increíble capacidad de imitar con su voz a Robert de Niro, George Clooney, Jack Nicholson, George W. Bush y Robin Williams, entre otros, con la inteligencia artificial para que su rostro vaya mutando y tomando la forma de los personajes que iba imitando con su voz.

Así se hacen videos falsos con inteligencia artificial

A partir de este caso, la plataforma prohibió el principal “subreddit” denominado Deepfakes, en donde sus usuarios compartían este tipo de material audiovisual.

Otro caso resonante dentro del mundo del espectáculo fue el video de la edición de una antigua entrevista a Bill Hader, quien acudió al programa de David Letterman para hablar de Tropic Thunder (Una guerra de película, en Latinoamérica). Aplicando la tecnología deepfake, los autores del video lograron convertir -sin interrupciones- el rostro de Hader en el de Tom Cruise y Seth Rogen.

DeepFake, convierte a Bill Hader en Tom Cruise

La cuenta en Instagram del artista británico Bill Posters tiene al menos diez videos deepfake que utiliza como una sátira moderna para, por ejemplo, criticar la recolección de datos personales que adelanta Facebook a través de su desarrollo“Spectre.

El deepfake que involucró a Kim Kardashian

Las imágenes de Freddie Mercury, Morgan Freeman, Marcel Duchamp, Marina Abramovic, Mark Zuckerberg, Donald Trump, Kim Kardashian, entre otros, vienen siendo utilizadas para la propagación de información falsa a través de videos adulterados. ¿Será esto un obstáculo para los imitadores que quieren aprovechar este recurso en sus performances?

Para hacer este deep fake se utilizó un video real de Zuckerberg y se modificó con inteligencia artificial el discurso

Seguí leyendo: