Pornografía sintética no consentida: “Hoy para una mujer solo existir es un peligro”

Marta Peirano es una periodista española especializada en Tecnología y Poder que analiza el fenómeno del deep fake a partir del caso español Almendralejo, donde se usó inteligencia artificial para crear imágenes pornográficas a partir de fotos de las caras de una veintena de niñas sin consentimiento. Ya no hace falta que sea verdad, alcanza con que lo parezca y los resultados son los mismos: niñas avergonzadas como si fueran culpables

Guardar
Marta Peirano es una periodista
Marta Peirano es una periodista española especializada en Tecnología y Poder que hace más de veinte años trabaja sobre derechos digitales, ciberseguridad y privacidad (Captura de video)

El caso conmueve a España: son por lo menos veinte niñas desnudas y en imágenes eróticas para las que nunca posaron. Alumnas menores de edad de varios colegios de la localidad de Almendralejo, en Badajoz, que fueron víctimas de la manipulación de fotografías que no eran íntimas: ellas mismas las habían publicado en sus cuentas de redes, eran sus fotos de perfil, las tomas casuales e inocentes hechas en un cumpleaños o en sus casas.

Fueron menores también los que utilizaron tecnología de inteligencia artificial (IA) de fácil acceso público para crear –sin su consentimiento– imágenes pornográficas hiperrealistas en base a esas fotos que nunca pretendieron serlo, lo que los expertos definen como “pornografía sintética”. Menores que luego extorsionaron a sus víctimas, porque ya no hace falta que la pornografía –ni nada– sea verdad, alcanza con que lo parezca y los resultados son los mismos: niñas avergonzadas como si fueran culpables, niñas cada vez más expuestas y con menos defensas, porque si no se tiene la pollera corta alguien puede ocuparse de acortarla con IA para que hasta eso de igual.

Marta Peirano es una periodista española especializada en Tecnología y Poder que hace más de veinte años trabaja sobre derechos digitales, ciberseguridad y privacidad, y es una de las voces que hoy echan luz sobre una cuestión difusa, que surge de un vacío legal que es sólo la punta del iceberg, porque como ella dice, ese vacío legal se apoya en el machismo estructural y las perjudicadas vuelven a ser las mujeres, que son amplia mayoría entre las víctimas.

Rosalía fue víctima de este
Rosalía fue víctima de este tipo de deep fake de contenido pornográfico creado con inteligencia artificial (REUTERS/Mario Anzuoni)

—¿Cómo definirías a la pornografía sintética?

— Llamamos sintéticos a todos los contenidos generados por IA, por lo que la pornografía sintética es la pornografía generada por IA. En el caso de Almendralejo, además de ser pornografía sintética es no consentida. Eso implica que el protagonista o la protagonista de esa pornografía –que en general es una mujer– no ha consentido protagonizar esa pornografía generada con su cara o partes de su cuerpo. En este caso, además, las protagonistas ni siquiera tenían conocimiento del hecho, que es algo exclusivo de esta clase de pornografía sintética: generalmente, para distribuir pornografía no consentida, antes necesitabas un video de una persona –las famosas sex tapes–, ahora ya no hace falta ni que haya una cinta verdadera, por eso lo llamamos pornografía sintética no consentida.

—Tradicionalmente las mujeres cubriendo Tecnología no han sido tantas, en ese sentido tu mirada es doblemente interesante porque te preocupan temas que a veces los varones tienden a soslayar.

— Yo he sido periodista de Tecnología toda mi vida y, en mi círculo, que está más vinculado a la ciberseguridad y a la legislación de la Tecnología, las mujeres no son mayoría, pero sí cada vez más. Estos son temas que están muy vinculados a las intersecciones de la Tecnología con espacios legislativos o normativos que surgen a partir de las posibilidades que se generan en casos como este, donde de repente un niño de catorce años accede a una herramienta con la que hace cosas que hasta hace dos días solamente se podían hacer en un estudio de postproducción de una gran productora, y sea capaz de hacer algo que en teoría no debería poder hacer, que es manejar pornografía.

Y eso excede lo puramente tecnológico.

— Sí, porque se dan un conjunto de circunstancias que también tienen que ver con que la normativa no está siendo efectiva a la hora de que los menores no tengan acceso a la pornografía a través de sus móviles, que las empresas que hacen modelos de IA como los que pueden cambiar el cuerpo de una modelo de porno por el de una niña no están haciendo su trabajo… Se dan muchas circunstancias especiales.

— ¿Qué implicancias puede llegar a tener el caso, que al ser tan extremo, generó una repercusión y un debate tanto más profundo incluso fuera de España?

— El caso de Almendralejo nos parece único porque todas esas circunstancias lo hacen tituloso, sumado a que sean tantas niñas en una comunidad tan pequeña, algo que nos enfrenta a la gravedad de lo que ocurre. Que cinco colegios hayan sido anfitriones de ese tipo de actividad es muy llamativo, y lo que lo que nos dice es lo fácil que es el acceso a estas herramientas, lo obvio que es utilizarlas exactamente para eso, y lo poco preparada que está la legislación para gestionar ese problema. Aquí son muchas niñas, menores de edad, ¡la más pequeña de ellas tiene 11 años! Y los propios perpetradores también son menores. Entonces hay una cadena de responsabilidades que se disuelve, como la responsabilidad de las compañías de móviles que permiten que un usuario menor de edad tenga acceso a pornografía, la de la empresa de IA que permite que las fotos de una niña se intercambien o se crucen imágenes pornográficas, la cuestión de los padres… ¿por qué las niñas se enteraron antes que los padres de que sus hijos estaban haciendo estas cosas?

 Alumnas menores de edad
Alumnas menores de edad de varios colegios de la localidad de Almendralejo, en Badajoz, que fueron víctimas de la manipulación de fotografías que no eran íntimas (Crédito: Getty)

En esa cadena de disolución de responsabilidades está la dificultad de determinar que el daño es real pese a que las imágenes, aunque sean hiperreales, no lo son en verdad. Es sorprendente (o no tanto), porque parece que es mucho más fácil entender el nivel de daño cuando el deep fake es sobre cuestiones políticas que cuando las víctimas son mujeres como Rosalía o Luisana Lopilato. Que también le ocurra a niñas es tremendo, pero a la vez hace más difícil que miremos para otro lado o culpemos a las víctimas.

— Claro, es mucho más tangible porque son muchas y son menores y además están todas en una comunidad pequeña. Pero si fueran dos niñas en el mismo pueblo que en vez de tener once años tuvieran dieciséis o diecisiete, el efecto sería muy diferente: lo más probable es que lo vivirían en la clandestinidad total, pasarían mucha vergüenza y acabarían yéndose del colegio. Serían ellas las expulsadas de la institución educativa en lugar de los perpetradores.

— Serían ellas las avergonzadas por lo que debería darle vergüenza a quienes manipularon sus imágenes.

— Exacto: lo único que pasaría es que ellas tendrían que agachar la cabeza, esconderse y exponerse a que haya fotos de ellas aparentemente en situaciones inapropiadas que las perseguirían por el resto de su vida. En el fondo, las niñas de Almendralejo, dentro de la desgracia de lo que les ha pasado, tienen la suerte de ser menores y de alguna manera estar más protegidas que las mujeres adultas, y también de ser muchas, que facilita el escándalo en lugar de la vergüenza personal en secreto que suelen pasar las víctimas de este tipo de pornografía. Y coincido cuando dices que hablamos mucho de los deep fakes políticos y no lo suficiente de estos, ¡parte de un prejuicio tan descarado! Porque sabemos que la mayoría prácticamente absoluta del uso del deep fake es para generar pornografía no consentida de mujeres menores y mayores.

El caso Almendralejo preocupa a
El caso Almendralejo preocupa a España. Mercedes Vaquera, Consejera de Educación de Extremadura, donde pertenece el municipio apuesta por regular la IA para evitar que se repitan los casos

¿Y por qué creés que pasa esto?

— Yo después de romperme mucho la cabeza pensando en por qué es así, di con una académica estadounidense que se llama que Sophie Maddocks, que lleva estudiando hace muchos años el tema de la ciber violencia contra las mujeres, y la conclusión que ella saca, que a mí me parece muy acertada, es que nos preocupa el deep fake político porque pone en crisis el establishment, la institución, mientras que el deep fake pornográfico, lo que hace es reforzarla.

— Claro, es mantener el statu quo de la violencia machista. No hay nada en jaque.

— No hay fundaciones sociales que se rompan, sino más bien al contrario: es un instrumento de control de la mujer que hace que nos lo pensemos dos veces antes de participar en la vida pública. En este caso, el colegio es el primer espacio de participación en la vida pública al que accedemos.

O sea que ya no alcanza con cuidarse de no hacer videos o fotos íntimas o de no compartirlas con una pareja, directamente hay que cuidarse de existir en redes sociales, porque basta con mi cara para crearlos

— Es así, puedes tomar precauciones y no salir de casa, no ir al colegio, no ir a comprar, no hacerte fotos el día de tu cumpleaños ni en momentos especiales en tu vida (se ríe).

¿La legislación vigente en Europa, por ejemplo, puede protegernos? ¿Qué debería tenerse en cuenta al diseñar leyes contra la pornografía sintética?

— Sin ser yo ni especialista en leyes ni en ordenanzas públicas, percibo que hay mucha legislación que es aplicable a este caso, como el Derecho al Honor, o las leyes que restringen el acceso a la pornografía por parte de menores de edad. Hay una serie de legislaciones que están que están ya diseñadas para protegernos de este tipo de cosas, lo que no hay es una legislación específica para, por ejemplo, la generación de pornografía sintética que es tan evidente que debería existir que en el primer boceto de de la Ley de Servicios Digitales que es la nueva ley europea para Internet, había una prohibición expresa y manifiesta de generar pornografía sintética sin permiso y, sin embargo, esta legislación se cayó en el proceso de debate de la ley. Ahora esperamos que con este ejemplo que ha sido tan resonante desde el punto de vista mediático, España que tiene ahora la presidencia del Parlamento Europeo empuje o presione para que ese tipo de actividades estén más vigiladas.

"Alemania es el país que
"Alemania es el país que tiene la ley más restrictiva con respecto a este tipo de cosas, y no se refiere a la generación de contenidos –como en este caso, pornográficos con la imagen de menores–, sino a la distribución de contenidos que son descaradamente ilegales", dijo la periodista Marta Peirano (Captura de video)

— ¿Cuáles son los países que más han avanzado con legislación en este sentido?

— Alemania es el país que tiene la ley más restrictiva con respecto a este tipo de cosas, y no se refiere a la generación de contenidos –como en este caso, donde se generaron contenidos pornográficos con la imagen de menores–, sino a la distribución de contenidos que son descaradamente ilegales. Ellos tienen una ley que establece que las plataformas digitales como Google o Facebook deben eliminar en el término de 24 horas los contenidos descaradamente ilegales, como la pornografía infantil –algo que en este caso aplica sin ningún debate–, y luego seis días para eliminar contenidos que no son descaradamente ilegales pero también lo son, como las infracciones al copyright. El resto de Europa no tiene esa clase de jurisdicción porque responsabiliza a las plataformas digitales de los contenidos que hay en sus servidores.

¿Cómo podemos hacer para generar conciencia sobre el alcance y nivel de daño cuando todavía es tan difícil incluso entenderlo con la difusión de material íntimo real?

— Es evidente que este no es un problema técnico, es una manifestación todavía más extrema y acelerada de un problema social, o de una estructura social de una jerarquía que se impone con este tipo de castigos a un colectivo que en realidad tampoco es un colectivo porque es más de la más de la mitad de la población. Es una jerarquía de control, una metodología de control: no es pornografía, lo que es en realidad es propaganda de esa jerarquía o ese régimen que mantiene a las mujeres bajo control para que no se salgan de su papel establecido. Y el caso de Almendralejo es un extremo muy descarado, porque empieza desde el colegio: un grupo de niños utiliza pornografía para humillar a un grupo de niñas en su entorno escolar, que es lo mismo que ocurre cuando un grupo de trabajadores utiliza un vídeo o fotos íntimas de una o varias trabajadoras para humillarlas en el contexto laboral. Esto ocurre con mucha frecuencia y muy a menudo provoca suicidios. La diferencia en este caso es que son tantas y tan pequeñas que tanto la ley como la mirada pública están a su favor.

No es lo que pasa por ejemplo con las trabajadoras o otras mujeres adultas que además de la violación de su intimidad después cargan en general con una mirada pública que las humilla y revictimiza.

— Claro, cuando le pasa a una mujer suele ocurrir lo contrario; decimos “Ah, pues de no haber distribuido fotografías picantes o de no haberle mandado un vídeo o de no haberse dejado grabar…”, que es como decir que grabar un vídeo íntimo con una persona que en ese momento es tu pareja o mandarle fotos un poco más íntimas a alguien con quien mantienes una relación merece ese castigo, el castigo de ser humillada públicamente en un espacio laboral o social o familiar. ¿Cómo podemos hacer para concienciar? Pues yo pienso que hay que empezar a corregir el régimen, no la tecnología, porque estas son tecnologías que ahora están en manos de todos y volver a meter el genio en la botella una vez lo hemos sacado es bastante difícil. Tiene más sentido educar en torno al machismo y la misoginia que lleva a este tipo de comportamientos en colegios y espacios laborales, porque aquí no se trata de perseguir determinadas herramientas tecnológicas, aunque la ley debería aplicarse también a este tipo de herramientas, sino de perseguir comportamientos misóginos destinados a humillar a la mitad de la población.

Guardar