Una polémica campaña en redes sociales desató el debate sobre la Inteligencia Artificial y la moralidad

La práctica que permitía editar imágenes de mujeres para cambiar drásticamente su apariencia generó acusaciones de misoginia y racismo

Guardar
El uso de la inteligencia
El uso de la inteligencia artificial para modificar la imagen de las personas, particularmente de las mujeres, en las redes, ha generado un debate profundo sobre el consentimiento y la privacidad (Imagen Ilustrativa Infobae)

Hace poco pasé la mayor parte de la mañana haciendo clic en el hashtag de una campaña que era alternativamente hilarante, repugnante, patética y extraña. La campaña -y uso esta palabra vagamente- es conocida por sus propagadores de base como “dignifAI”.

A grandes rasgos, se refiere al uso de inteligencia artificial para mejorar la imagen de una persona quitándole piercings, subiendo escotes, bajando dobladillos, etcétera. Se puede imaginar un uso inobjetable para este tipo de tecnología: un estudiante universitario, tal vez, que quiere enviar fotos a su abuela pero no está preparado para que ella vea su nuevo tatuaje en el cuello.

Pero como estamos en Internet en 2024, la abuela no es el público objetivo. “Ponemos ropa a mujeres degeneradas para divertirnos, únete”, rezaba el eslogan de un sitio web de dignifAI en el que entré, un eslogan que ponía a prueba la definición tanto de “degenerado” como de “divertido”. En una imagen, una foto de una mujer en bikini, y luego, a la derecha, la misma mujer ahora con un vestido hasta la rodilla.

A la izquierda, una mujer con tacones de aguja negros; a la derecha, la misma mujer con sandalias blancas de tacón bajo. A la izquierda, una mujer con una larga melena rubia parecía lista para desfilar en la pasarela de Victoria’s Secret; a la derecha, parecía lista para encabezar una exposición de madres influencers mormonas.

El fenómeno "dignifAI" evidencia una
El fenómeno "dignifAI" evidencia una clara intención de modelar la percepción social de la mujer a través de la tecnología (Freepik)

Resulta que las transformaciones de vestuario son la menor de las preocupaciones de dignifAI: las participantes están interesadas en trasplantes de estilo de vida. Las mujeres que antes no llevaban collares ahora llevan cruces. Una caja de cigarrillos se transforma en una quiche casera.

El arreglo más popular para cualquier imagen es añadir un bebé. Mujeres con perros en brazos se convierten en mujeres con bebés en brazos; una mujer bebiendo cerveza se convierte en una mujer acurrucando a un niño pequeño. “¿Qué camino, mujer occidental?”, preguntaba el pie de foto de una ilustración fantásticamente mala de una mujer eligiendo entre dos caminos.

El ejemplo más repugnante que vi mostraba una foto del “antes” de una mujer blanca que ya tenía un bebé, una hija mestiza. En la versión dignificada, le habían dado un marido de pelo arenoso y el bebé era ahora blanco. Misoginia y racismo son a menudo tan cómodos compañeros de cama.

Me enteré de la existencia de dignifAI la semana pasada tras ver que el término aparecía en X. Los influencers habían publicado imágenes, entre ellas la de Ian Miles Cheong, que compartió una foto alterada de la creadora de contenido para adultos Isla David (con las piernas cubiertas y un bebé añadido) y escribió: “Cuando se le dan fotos de trampas para la sed, la IA imagina lo que podría haber sido si hubieran sido criadas por padres fuertes”.

Imágenes de la cantante Taylor
Imágenes de la cantante Taylor Swift y la creadora de contenido Isla David fueron modificadas sin su consentimiento (Imagen Ilustrativa Infobae/ AP)

Al parecer, el término en sí nació en la comunidad 4chan, según Media Matters, después de que un usuario iniciara un hilo declarando: “Con el poder de la IA podemos poner ropa a las mujeres”. Mi editor y yo debatimos si debíamos escribir sobre la tendencia, preocupados por si no era una tendencia, era sólo un trolling y que cualquier atención que prestáramos avivaría las llamas de algo que en realidad debería irse a morir a un rincón.

Pero no pude evitar darme cuenta de que precisamente al mismo tiempo que Cheong -o a quienquiera que tomara prestada la imagen- se dedicaba a vestir a Isla David sin su consentimiento, otros rincones de Internet se dedicaban a quitarle la ropa a Taylor Swift. En X, el término “Taylor Swift AI” llevó a imágenes pornográficas deepfake de la cantante (en las que aparecía practicando sexo oral y sexo en grupo), una de las cuales fue vista 45 millones de veces antes de que el usuario que la publicó fuera suspendido.

Esta fue una historia mucho mayor. Después de todo, Isla David no es un nombre muy conocido, mientras que Taylor Swift es la mujer más famosa del planeta. Sus fans se defendieron ferozmente, e incluso los legisladores se sintieron alentados a actuar por la grave violación de su intimidad y el robo de su imagen. La secretaria de prensa de la Casa Blanca, Karine Jean-Pierre, abordó el asunto desde su podio.

Y el hecho de colocar a Swift en escenarios sexuales falsos que nunca consintió en la vida real es, a primera vista, mucho más atroz que lo que le hicieron a David: una foto de la creadora de contenido para adultos tomando un whisky en ropa interior se convirtió en una foto suya con un vestido de verano, descalza, con el revelador añadido de un dedo de más por parte de la IA.

En X, el término “Taylor
En X, el término “Taylor Swift AI” llevó a imágenes pornográficas deepfake de la cantante (AP /Ed Zurg)

Pero no se trata de la ropa, ¿verdad? Ya hay muchos contenidos en Internet de mujeres en vestido de verano jugando con niños pequeños. Mis algoritmos de redes sociales me muestran montones de ellos cada día. La cuestión de vestir a David es que ella no era una de esas mujeres, había construido intencionadamente su marca sobre la base de no ser una de esas mujeres.

A la inversa, ya hay un montón de porno en Internet que se proporciona voluntariamente, en parte hecho por mujeres que se parecen mucho a Taylor Swift. El objetivo de rebajar a Swift, literalmente, era rebajarla, metafóricamente, colocándola en situaciones no sólo sexuales, sino a menudo degradantes.

La falta de consentimiento de estas mujeres no era un subproducto, parecía ser el objetivo. El mensaje es: nosotros decidimos cómo debes comportarte y vestirte, no tú. Nosotros determinamos los comportamientos ideales de las mujeres, no tú. Imagen a imagen, ya sea eliminando sujetadores o añadiendo niños pequeños, conseguimos demostrar que nuestro interés no es encontrar mujeres cuyas fotos nos complazcan, sino mostrar a todas las mujeres que lo que nos complace es el control.

(c) 2024 , The Washington Post

Guardar