(Bloomberg) -- Según investigadores, se están popularizando las aplicaciones y los sitios web que utilizan inteligencia artificial para desnudar a mujeres en fotografías.
Solo en septiembre, 24 millones de personas visitaron sitios web para “desnudar”, según la empresa de análisis de redes sociales Graphika.
Según Graphika, muchos de estos servicios para desnudar utilizan redes sociales populares para su marketing. Por ejemplo, desde principios de este año, el número de enlaces que anuncian aplicaciones para desnudar aumentó más de un 2.400% en las redes sociales, incluidas X y Reddit, dijeron los investigadores. Los servicios utilizan IA para recrear una imagen de modo que la persona esté desnuda. Muchos de los servicios solo funcionan con mujeres.
Estas aplicaciones son parte de una preocupante tendencia de desarrollo y distribución de pornografía no consensuada debido a los avances en la inteligencia artificial, un tipo de medio fabricado conocido como pornografía deepfake. Su proliferación tropieza con serios obstáculos legales y éticos, ya que las imágenes a menudo se toman de las redes sociales y se distribuyen sin el consentimiento, control o conocimiento del individuo.
Una imagen publicada en X que anunciaba una aplicación para desnudar usaba un lenguaje que sugería que los clientes podían crear imágenes de desnudos y luego enviárselas a la persona cuya imagen estaba desnuda digitalmente, incitando al acoso. Mientras tanto, una de las aplicaciones ha pagado por contenido patrocinado en YouTube y aparece en primer lugar cuando se busca por la palabra “nudify” (“desnudar”).
Un portavoz de Google dijo que la compañía no permite anuncios “que contengan contenido sexual explícito. Hemos revisado los anuncios en cuestión y estamos eliminando aquellos que violan nuestras políticas”. Ni X ni Reddit respondieron a las solicitudes de comentarios.
La pornografía no consensuada de figuras públicas ha sido durante mucho tiempo un flagelo de internet, pero los expertos en privacidad están cada vez más preocupados de que los avances en la tecnología de inteligencia artificial hayan hecho que el software deepfake sea más fácil y efectivo.
“Evidenciamos que esto lo hacen cada vez más personas comunes y corrientes con objetivos comunes”, dijo Eva Galperin, directora de ciberseguridad de Electronic Frontier Foundation. “Se ve entre chicos de secundaria y universitarios”.
Muchas víctimas nunca se enteran de las imágenes, pero incluso aquellas que sí pueden tener dificultades para que las autoridades investiguen o encuentren fondos para emprender acciones legales, dijo Galperin.
Actualmente no existe ninguna ley federal que prohíba la creación de pornografía deepfake, aunque Estados Unidos prohíbe la generación de este tipo de imágenes de menores. En noviembre, un psiquiatra infantil de Carolina del Norte fue sentenciado a 40 años de prisión por usar aplicaciones para desnudar en fotografías de sus pacientes, el primer procesamiento de este tipo bajo una ley que prohíbe la generación de material de abuso sexual infantil falsificado.
TikTok bloqueó la palabra clave “desvestir”, un término de búsqueda popular asociado con los servicios, advirtiendo a cualquiera que busque la palabra que “puede estar asociada con un comportamiento o contenido que viola nuestras pautas”, según la aplicación. Un representante de TikTok declinó dar más detalles. En respuesta a preguntas, Meta Platforms Inc. también comenzó a bloquear palabras clave asociadas con la búsqueda de aplicaciones para desnudar. Un portavoz declinó hacer comentarios.
Nota Original:Apps That Use AI to Undress Women in Photos Soaring in Use
More stories like this are available on bloomberg.com
©2023 Bloomberg L.P.