El auge en la creación de deepfakes, contenido audiovisual manipulado a través de inteligencia artificial, ha experimentado un incremento alarmante del 464% en la cantidad de vídeos pornográficos manipulados entre los años 2022 y 2023, según el informe State of deepfakes 2023 de la organización Home Security.
Desde que surgieron hace aproximadamente cinco años, este tipo de contenidos maliciosos se han utilizado de manera constante para acosar a las mujeres y con los recientes avances en las tecnologías de IA, como el aprendizaje automático, la cantidad de estas piezas que suplantan a una persona pululan en la web.
Algo que se ha convertido en un problema para los motores de búsqueda que constantemente luchan para erradicar estas representaciones falsas y sexualmente explícitas que siguen circulando pese a las medidas actuales.
Las mujeres son las principales víctimas
El fenómeno de los deepfakes tiene un impacto tan notable que actrices y artistas como Emma Watson, Natalie Portman, Scarlett Johansson y Rosalía, han denunciado ser víctimas de este tipo de imágenes falsas.
Recordemos que en esta modalidad en la que se utiliza la inteligencia artificial para generar montajes en video, una imagen o un audio, son las mujeres y menores de edad las principales víctimas, a quienes se les vulnera su imagen y dignidad personal.
Lo que para los expertos genera un efecto psicológico importante porque representa unas prácticas sexuales, que a pesar de nunca haber ocurrido, son muy realistas.
Y lo más grave es que el 98% de las imágenes falsas que circulan en internet son de carácter sexual, según el informe de Home Security, que señala que el 99% del contenido fake pornográfico compromete al género femenino.
Cómo identificar un deepfake
Los deepfakes pueden parecer tan auténticos, que puede llegar a ser muy difícil identificarlos como tales, e incluso expertos como Eduardo Cruz, CEO de Qustodio, plataforma especializada en seguridad y bienestar digital, advierten que “existen aplicaciones capaces de modificar su contenido de manera que parece tan real, que da lugar al engaño”.
Por lo que la amenaza principal radica en la facilidad con la que cualquier individuo, especialmente los jóvenes, pueden acceder y utilizar estas herramientas sin necesidad de conocimientos informáticos avanzados.
Afortunadamente, hay ciertas características y errores sutiles que suelen repetirse en este tipo de contenidos, los cuales facilitan su identificación como un deepfake.
Estos detalles normalmente tienen que ver con la forma y los rasgos de la cara, esto incluye el número de parpadeos en los videos, los cuales suelen ser pocos y presentase de forma antinatural.
Para detectar un deepfake, hay que fijarse también en los aspectos físicos del cuerpo, especialmente el de las manos, que es una de las partes más difíciles de replicar.
También funciona fijarse en la duración del vídeo, la sincronización del sonido y el interior de la boca; así como a las incoherencias en el discurso y a la fuente de donde provienen las imágenes.
Además, las grandes tecnológicas ya están generando mecanismos, también basados en la IA, que pueden detectar estas manipulaciones.
Qué hacer si soy víctima
Ante un hipotético caso de ser víctima de un deepfake, es fundamental no compartir este tipo de contenidos.
Existen canales prioritarios, como el de la Agencia Española de Protección de Datos, para la rápida interrupción de su difusión.
Adicionalmente, existen vías legales, tanto penales como civiles, para denunciar esta clase de actuaciones y buscar reparaciones.
Los expertos también enfatizan en la importancia de la educación en la digitalización y la conciencia sobre los riesgos asociados al uso de la IA en la generación de contenido falso.
Además, la repercusión psicológica y social de una exposición a deepfakes, especialmente cuando involucra a menores, puede ser devastadora. Es por ello, la pedagogía y el apoyo especializado son cruciales para hacer frente a las consecuencias negativas derivadas de esta forma de ciberacoso.