Una serie de imágenes generadas por IA de Taylor Swift en situaciones sugerentes están inundando redes sociales como X, donde estos contenidos conocidos como deepfakes pornográficos fueron vistos por millones de personas antes de ser eliminados.
Estas creaciones digitales alteradas con fines maliciosos, retratan a la popular artista de manera explícita con algunos elementos que hacen alusión al equipo profesional de fútbol americano Kansas City Chief, debido a las revientes visitas que ha realizado a su estadio para presenciar los encuentros deportivos de su novio, el jugador estrella Travis Kelce.
Uno de estos contenidos sexualmente explícitos acumuló más de 45 millones de visualizaciones y miles de interacciones, y solo fue después de 17 horas que la cuenta del usuario que lo publicó fue suspendida por infringir las políticas de la red social de Elon Musk.
Cómo se generaron estos contenidos
De acuerdo con un informe del portal 404 Media, las imágenes pueden haberse originado en un grupo en Telegram, donde los usuarios comparten imágenes explícitas de mujeres generadas por IA, a menudo hechas con Microsoft Designer.
Y aunque se están eliminado estos contenidos, muchos todavía permanecen activos y se volvieron a publicar en otras cuentas, lo que ha significado una avalancha de nuevas falsificaciones gráficas.
Incluso en algunas regiones, el término “Taylor Swift AI” se convirtió en un tema de tendencia e hizo que las imágenes llegaran a un público más amplio.
Alex Kaplan, un investigador en la organización sin fines de lucro Media Matters for America, asegura que las imágenes han estado circulando en 4chan durante meses. Mientras que un representante de Microsoft dijo que la compañía está investigando el problema.
Estas prácticas reflejan un aumento en la incidencia de la pornografía deepfake y ponen en relieve los retos a los que se enfrentan las redes sociales para frenar la divulgación de este tipo de contenidos.
De hecho, X tiene políticas claras que prohíben el alojamiento de imágenes manipuladas o sintéticas y desnudez sin consentimiento, pero la proliferación de estas han puesto en duda su eficacia.
Fans responden y Swift prepara una demanda
La falta de una respuesta contundente para atender el incidente desató una dura reacción del ejército de seguidores de la artista, quienes intentaron contrarrestar la situación promoviendo contenidos reales y montando una campaña llamado “Protect Taylor Swift” para hacer que las imágenes originales sean más difíciles de encontrar.
Mientras que una persona allegada a la artista mencionó al portal Daily Mail, que se está considerando emprender acciones legales contra los responsables, advirtiendo que “el círculo de familiares y amigos de Taylor está furioso” por esta clara violación de su privacidad.
“Se está decidiendo si se tomarán acciones legales, pero hay una cosa que está clara: Estas imágenes falsas generadas por IA son abusivas, ofensivas, explotadoras y se realizan sin el consentimiento y/o la autorización de Taylor”.
Y aunque se destacó que la cuenta de X que las publicó ya no existe, “es impactante que la plataforma de redes sociales incluso les haya permitido subirlas para empezar”. “Estas imágenes deben eliminarse de todos los lugares donde existan y nadie debe promocionarlas”.
Por qué la falta de legislación agrava el problema
El incremento de videos deepfake genera preocupación tras registrarse más de 143,000 publicaciones de estas piezas en el año 2023, según un análisis de Genevieve Oh, resaltando que en Estados Unidos no existe una regulación federal que aborde específicamente la problemática.
Aunque en ciertos estados, se han adoptado medidas legales con el objetivo de combatir la proliferación de estos contenidos y reducir su impacto negativo.
Por ejemplo, California prohíbe la creación y distribución de deepfakes sexuales sin consentimiento y restringe también la circulación de imágenes falsas que involucren a candidatos políticos en periodos electorales próximos.
Nueva York y Virginia han establecido sanciones económicas y penales para los responsables de compartir imágenes deepfake sin autorización, mientras que Texas castiga la producción y distribución de esta naturaleza de contenidos.