San Francisco presentó esta semana una demanda sin precedentes contra varios sitios web que permiten la creación de imágenes falsificadas de desnudos mediante inteligencia artificial. Estos servicios prometen “desnudar cualquier foto” que se suba a la plataforma en cuestión de segundos, según informó ABC News.
La demanda acusa a los servicios de violar leyes estatales de California que prohíben las prácticas comerciales fraudulentas, la pornografía no consensuada y el abuso sexual infantil. Esta acción legal surge en un contexto donde la inteligencia artificial sigue siendo fácilmente accesible en internet, generando imágenes que humillan y amenazan a mujeres y niñas en todo el mundo.
David Chiu, fiscal de la ciudad de San Francisco, declaró que “la proliferación de estas imágenes ha explotado a un número alarmante de mujeres y niñas a nivel global”. Chiu añadió que el impacto en las víctimas incluye daños severos a su reputación, salud mental, y pérdida de autonomía, y en algunos casos, ha llevado al intento de suicidio.
El problema de los sitios web que crean deepfakes no es nuevo. En septiembre del año pasado, en Almendralejo, España, una comunidad se vio afectada cuando se descubrieron imágenes desnudas generadas por IA de alumnas de secundaria. Recientemente, un tribunal de menores sentenció a un año de libertad condicional a 15 de sus compañeros implicados en el caso. Sin embargo, la herramienta de inteligencia artificial responsable de estas imágenes aún está disponible en internet.
San Francisco no es el primer lugar donde han surgido estos problemas, pero es la primera ciudad en Estados Unidos en emprender acciones legales de esta magnitud. La dificultad radica en identificar a los operadores de estos sitios, que no están disponibles en las tiendas de aplicaciones móviles, pero sí se encuentran fácilmente en la web.
Expertos creen que esta demanda podría sentar un precedente legal en el ámbito de la explotación sexual y deepfakes. Según Emily Slifer, directora de política en Thorn, “la demanda tiene el potencial de establecer un precedente legal en esta área”. No obstante, Riana Pfefferkorn, investigadora de la Universidad de Stanford, advirtió que será difícil llevar a la justicia a los acusados, especialmente aquellos que operan fuera de los Estados Unidos, según dijo a la agencia de noticias The Associated Press (AP).
Chiu expresó que están utilizando herramientas de investigación y autoridad de citación para profundizar en la identidad y localización de estos operadores. Añadió que procederán enérgicamente en la litigación.
En otras partes del mundo, herramientas similares de IA se han infiltrado en entornos escolares. En lugares como Australia y Beverly Hills, estudiantes varones han creado y circulado imágenes de compañeras a través de redes sociales, afectando gravemente a las víctimas.
Dra. Miriam Al Adib Mendiri, una médica cuya hija fue víctima en Almendralejo, enfatizó en una entrevista con la AP que no solo la sociedad, la educación, los padres y las escuelas deben hacerse responsables, sino también las grandes corporaciones digitales que se benefician de estos contenidos.
Aunque varios colegios y cuerpos de seguridad han castigado a los creadores y distribuidores de estos deepfakes, todavía hay un sentimiento de que queda mucho por hacer para controlar las herramientas mismas utilizadas para crear este material nocivo.