Los motores de búsqueda en la web se enfrentan a un creciente desafío en la lucha contra los deepfakes porno no consentidos. Estas representaciones falsas y sexualmente explícitas, creadas mediante el uso de inteligencia artificial, han proliferado a un ritmo alarmante, y se han convertido en una amenaza para la privacidad y la dignidad de las personas en línea.
Desde que surgieron hace aproximadamente cinco años, estos se han utilizado de manera constante para acosar a las mujeres, al permitir que sus rostros sean superpuestos en contenido pornográfico sin su consentimiento. Y con el avance de las tecnologías de IA y un ecosistema de deepfake en constante expansión, la cantidad de estas piezas que suplantan a una persona están en aumento exponencial.
Incluso actrices como Emma Watson o Natalie Portman, o artistas de la talla de Rosalía, han denunciado ser víctimas de este tipo de imágenes falsas que se están compartiendo en la red.
En 2023 el problema está disparado
Una investigación independiente, que fue compartida al portal Wired, realizó un análisis revelador sobre la prevalencia de este problema, al estimar que durante los últimos siete años se han subido al menos 244,625 videos a 35 sitios web dedicados exclusivamente o parcialmente a albergar videos porno deepfake.
Pero la tendencia es aún más alarmante en 2023, debido a que en los primeros nueve meses de este año, se subieron 113,000 videos a estos sitios web, lo que representa un aumento del 54% en comparación con los 73,000 videos subidos en todo el año 2022.
Además, se pronostica que para fines de diciembre, se habrán producido más videos en 2023 que la suma total de los dos años anteriores.
Una industria del deepfake
Estas cifras son solo la punta del iceberg y el problema abarca otras formas de imágenes manipuladas. De hecho, se ha desarrollado toda una industria de abuso de deepfake, que se centra principalmente en mujeres y se produce sin su consentimiento ni conocimiento.
Además, existen aplicaciones de intercambio de caras que funcionan con imágenes estáticas y aplicaciones que permiten “desvestir” a una persona en una foto con solo unos pocos clics. Se estima que se están creando millones de imágenes y videos utilizando estas aplicaciones.
Sophie Maddocks, investigadora de derechos digitales y violencia cibersexual en la Universidad de Pensilvania, señala que este problema afecta a personas comunes, desde estudiantes de secundaria hasta adultos.
Incluso ha llegado a ser algo común y, según Maddocks, “habría una gran diferencia si pudiéramos hacer que estas tecnologías fueran más difíciles de acceder. No deberían tomar dos segundos para incitar potencialmente a un delito sexual”.
El problema se propaga desde sitios web
La investigación identificó 35 sitios web que se dedican exclusivamente o parcialmente a alojar videos de pornografía deepfake. Aunque se optó por no nombrar ni vincular directamente estos lugares para evitar aumentar su visibilidad, si se destaca que algunos de los más prominentes albergan más de 44,000 videos cada uno.
Además de estos sitios especializados, se han identificado 300 dominios web de pornografía general que incorporan contenido deepfake no consensuado de alguna manera. Esto incluye sitios web de “filtración” y aquellos que vuelven a publicar imágenes de personas en las redes sociales. Uno de estos sitios afirma haber “desnudado” a personas en 350,000 fotografías.
El alcance completo de los videos e imágenes deepfake en línea es difícil de medir, debido a que se comparten en redes sociales, grupos de mensajería privados y canales cerrados. Sin embargo, este fenómeno sí ha tenido un impacto duradero en las víctimas, que a menudo experimentan acoso en línea, ansiedad, depresión y otras consecuencias graves para su salud mental.
Para abordar este problema, los expertos señalan la necesidad de nuevas leyes y regulaciones, así como una mayor educación sobre estas tecnologías. También es crucial que las empresas que alojan sitios web y los motores de búsqueda tomen medidas para reducir la propagación de deepfakes no consensuados.
Agregar barreras al proceso de búsqueda de estos videos y herramientas también puede ayudar a disminuir su proliferación.