Cuando Gabi Belle se enteró de que circulaba por Internet una foto suya desnuda, se le heló el cuerpo. La influencer de YouTube nunca había posado para la imagen, que la mostraba de pie en un campo y sin ropa. Sabía que debía de ser falsa.
Pero cuando Belle, de 26 años, envió un mensaje a un colega pidiéndole ayuda para eliminar la imagen, éste le dijo que había casi 100 fotos falsas repartidas por la red, la mayoría alojadas en sitios web conocidos por albergar porno generado por inteligencia artificial (IA). Según Belle, las retiraron en julio, pero ya han aparecido nuevas imágenes en las que aparece en situaciones sexuales gráficas.
“Me sentí asqueada y violada”, dijo Belle en una entrevista. “Esas partes privadas no están destinadas a que el mundo las vea porque yo no lo he consentido. Así que es muy extraño que alguien haga imágenes mías”.
La inteligencia artificial está impulsando este año un auge sin precedentes de imágenes y vídeos pornográficos falsos. Esto es posible gracias al aumento de herramientas de IA baratas y fáciles de usar que pueden “desnudar” a personas en fotografías -analizando el aspecto que tendrían sus cuerpos desnudos e insertándolo en una imagen- o cambiar sin problemas un rostro en un vídeo pornográfico.
En los 10 principales sitios web que alojan fotos porno generadas por IA, los desnudos falsos se han disparado más de un 290% desde 2018, según Genevieve Oh, analista del sector. En estos sitios aparecen celebridades y figuras políticas como la diputada por Nueva York Alexandria Ocasio-Cortez junto a chicas adolescentes normales, cuyas imágenes han sido aprovechadas por malos actores para incitar a la vergüenza, extorsionar o vivir fantasías privadas.
Las víctimas tienen pocos recursos. No existe una ley federal que regule el porno deepfake, y sólo unos pocos estados han promulgado normativas al respecto. La orden ejecutiva sobre IA emitida el lunes 30 de octubre de 2023 por el Presidente Biden recomienda, pero no obliga, a las empresas a etiquetar las fotos, vídeos y audio generados por IA para indicar que son obra de un ordenador.
Mientras tanto, los juristas advierten que las imágenes falsas de IA pueden no estar protegidas por los derechos de autor de las imágenes personales, ya que se basan en conjuntos de datos poblados por millones de imágenes. “Se trata claramente de un problema muy grave”, afirma Tiffany Li, profesora de Derecho de la Universidad de San Francisco.
La llegada de las imágenes de IA supone un riesgo particular para las mujeres y los adolescentes, muchos de los cuales no están preparados para tal visibilidad. Un estudio de 2019 de Sensity AI, una compañía que monitorea deepfakes, encontró que el 96% de las imágenes deepfake son pornografía, y el 99% de esas fotos apuntan a las mujeres.
“Ahora está muy dirigido a las niñas”, dijo Sophie Maddocks, investigadora y defensora de los derechos digitales en la Universidad de Pensilvania. “Chicas jóvenes y mujeres que no están en el ojo público”.
“Mira, mamá ¿Qué me han hecho?”
El 17 de septiembre, Miriam Al Adib Mendiri regresaba de un viaje a su casa en el sur de España cuando encontró a su hija de 14 años angustiada. Su hija compartió una foto suya desnuda.
“Mira, mamá. ¿Qué me han hecho?”. recuerda Al Adib Mendiri que le dijo su hija.
Ella nunca había posado desnuda. Pero, según la policía, un grupo de chicos de la localidad había tomado fotos vestidas de los perfiles en redes sociales de varias chicas de su ciudad y había utilizado una aplicación de IA “nudificadora” para crear las fotos desnudas.
La aplicación es una de las muchas herramientas de IA que utilizan imágenes reales para crear fotos de desnudos, que han inundado la web en los últimos meses. Analizando millones de imágenes, el software de IA puede predecir mejor el aspecto que tendrá un cuerpo desnudo y superponer con fluidez un rostro en un vídeo pornográfico, explica Gang Wang, experto en IA de la Universidad de Illinois en Urbana-Champaign.
Aunque muchos generadores de imágenes de IA impiden a los usuarios crear material pornográfico, el software de código abierto, como Stable Diffusion, hace público su código, lo que permite a los desarrolladores aficionados adaptar la tecnología, a menudo con fines nefastos. (Stability AI, fabricante de Stable Diffusion, no ha respondido a la solicitud de comentarios).
Una vez que estas aplicaciones son públicas, utilizan programas de recomendación que animan a los usuarios a compartir estas fotos generadas por IA en las redes sociales a cambio de dinero en efectivo, dijo Oh.
Cuando Oh examinó los 10 principales sitios web que alojan imágenes porno falsas, descubrió que este año se habían subido más de 415.000, con casi 90 millones de visitas.
Los vídeos porno generados por inteligencia artificial también han proliferado en la red. Tras rastrear los 40 sitios web más populares en busca de vídeos falsos, Oh descubrió que se habían añadido más de 143.000 vídeos en 2023, una cifra que supera todos los vídeos nuevos de 2016 a 2022. Los vídeos falsos han recibido más de 4.200 millones de visitas, según Oh.
La Oficina Federal de Investigación (FBI) advirtió en junio de un repunte de la extorsión sexual por parte de estafadores que exigen un pago o fotos a cambio de no distribuir imágenes sexuales. Aunque no está claro qué porcentaje de estas imágenes son generadas por IA, la práctica se está extendiendo. Hasta septiembre, más de 26.800 personas han sido víctimas de campañas de “sextorsión”, un aumento del 149% desde 2019, según ha informado el FBI a The Post.
“No estás a salvo como mujer”
En mayo, un cartel en un popular foro de pornografía inició un hilo llamado “Puedo fingir tu enamoramiento”. La idea era sencilla: “Envíame a quien quieras ver desnuda y puedo falsificarla” utilizando IA, escribió el moderador.
En cuestión de horas, las fotos de mujeres inundaron el foro. “No es una celebridad ni una influencer”, preguntaba un usuario. “¿Mi compañera de trabajo y mi vecina?”, añadía otro.
Minutos después de una petición, una versión desnuda de la imagen aparecía en el hilo. “Muchas gracias hermano, está perfecto”, escribió un usuario.
Los famosos son un objetivo popular para los creadores de porno falso que pretenden aprovechar el interés de las búsquedas de fotos de actores famosos desnudos. Pero los sitios web en los que aparecen personajes famosos pueden dar lugar a un aumento de otros tipos de desnudos. Estos sitios suelen incluir contenido “amateur” de personas desconocidas y albergan anuncios que comercializan herramientas de creación de porno con IA.
Google cuenta con políticas para evitar que las imágenes sexuales no consentidas aparezcan en los resultados de búsqueda, pero sus protecciones para las imágenes deepfake no son tan sólidas. La pornografía de imitación profunda y las herramientas para crearla aparecen de forma destacada en los motores de búsqueda de la empresa, incluso si no se busca específicamente contenido generado por IA. Oh documentó más de una docena de ejemplos en capturas de pantalla, que fueron confirmadas de forma independiente por The Post.
Ned Adriance, portavoz de Google, declaró en un comunicado que la empresa está “trabajando activamente para aumentar la protección de las búsquedas” y que permite a los usuarios solicitar la eliminación involuntaria de pornografía falsa.
Google está en proceso de “crear salvaguardias más amplias” que no requieran que las víctimas soliciten individualmente la retirada de contenidos, añadió.
Li, de la Universidad de San Francisco, dijo que puede ser difícil penalizar a los creadores de estos contenidos. El artículo 230 de la Ley de Decencia en las Comunicaciones exime a las empresas de redes sociales de responsabilidad por los contenidos publicados en sus sitios, lo que deja poca carga a los sitios web para vigilar las imágenes.
Las víctimas pueden pedir a las empresas que retiren fotos y vídeos en los que aparezcan. Pero como la IA se basa en una sobreabundancia de imágenes de un conjunto de datos para crear una foto falsa, es más difícil para una víctima alegar que el contenido se deriva únicamente de su imagen, dijo Li.
“Tal vez todavía pueda decir: ‘Es una violación de los derechos de autor, está claro que tomaron mi foto original protegida por derechos de autor y luego sólo le añadieron un poco’”, dijo Li. “Pero en el caso de las falsificaciones profundas... no está tan claro... cuáles eran las fotos originales”.
A falta de leyes federales, al menos nueve estados -entre ellos California, Texas y Virginia- han aprobado leyes contra las falsificaciones profundas. Pero el alcance de estas leyes varía: En algunos estados, las víctimas pueden presentar cargos penales, mientras que otros sólo permiten demandas civiles, aunque puede ser difícil determinar a quién demandar.
El impulso para regular las imágenes y vídeos generados por IA suele tener como objetivo evitar la distribución masiva, respondiendo a las preocupaciones sobre la interferencia electoral, dijo Sam Gregory, director ejecutivo de la organización de defensa de los derechos humanos de tecnología Witness.
Pero estas normas hacen poco por el porno deepfake, donde las imágenes compartidas en pequeños grupos pueden causar estragos en la vida de una persona, añadió Gregory.
Belle, la influencer de YouTube, aún no está segura de cuántas fotos deepfake suyas son públicas y dijo que se necesitan normas más estrictas para abordar su experiencia.
“No estás a salvo como mujer”, afirmó.
(c) 2023, The Washington Post