- La tecnología de inteligencia artificial permite crear imágenes hiperrealistas de abuso sexual, incluyendo a menores.
- Argentina reporta un aumento en denuncias por deep fakes de menores, con más de 70.000 casos en 2024.
- Las víctimas de deep fakes se enfrentan a impactos psicológicos graves y violaciones de su privacidad.
Lo esencial: el avance de la tecnología de deep fakes ha generado nuevos retos en la lucha contra el abuso sexual infantil, al crear contenido explícito manipulando imágenes de menores. Estas representaciones no solo exponen a las víctimas de un abuso digital sin precedentes, sino que también perpetúan el trauma emocional. En Argentina, los casos de explotación de deep fakes han aumentado dramáticamente, con más de 70.000 denuncias hasta la fecha en 2024, según el Observatorio de Cibercrimen. La circulación de este contenido en redes sociales y foros de internet dificulta la intervención de las autoridades y provoca en las víctimas una profunda vulnerabilidad y humillación.
Por qué importa : el fenómeno de los deep fakes de menores plantea un riesgo crítico para los derechos humanos y la salud mental, exigiendo una intervención urgente:
- Exacerba el trauma de las víctimas al perpetuar su abuso en entornos digitales.
- Obstaculiza la intervención policial y legal debido a la rapidez de su distribución en redes.
- Normaliza la explotación infantil, comprometiendo el respeto a la privacidad y dignidad de los menores.
En los últimos años, la tecnología de inteligencia artificial ha avanzado hasta alcanzar la capacidad de generar imágenes hiperrealistas que pueden manipularse para mostrar situaciones ficticias, entre ellas las muy tristes y peligrosas, las de la violencia sexual.
Este fenómeno ha comenzado a expandirse en Argentina y el mundo, creando un escenario preocupante donde la victimización y el acoso psicológico alcanzan dimensiones que no imaginábamos.
Para aquellos que ya han sido víctimas de violencia sexual, ver sus rostros insertados en imágenes de naturaleza sexual explícita es una experiencia que reabre heridas y profundiza el trauma, afectando gravemente su salud mental. Para quienes se enfrentan por primera vez a esta tragedia, el impacto es brutal, porque los convierten en una nueva forma de víctimas de un abuso digital que atenta contra toda su integridad y dignidad, dejándolos atrapados en un ciclo eterno de sufrimiento emocional sin precedentes.
En el contexto de la violencia sexual infantil, los deep fakes son utilizados de forma criminal para crear contenido explícito donde la víctima aparece en situaciones de abuso o explotación. Aunque estos videos o imágenes son digitalmente falsas, las repercusiones psicológicas y legales son reales y devastadoras. Al exponer a la víctima a este tipo de manipulación, se perpetúa un daño emocional, ya que su imagen queda vinculada a situaciones traumáticas.
Con esto quiero decir que los niños, niñas y adolescentes cuyas imágenes o rostros se utilizan para crear deep fakes de abuso sexual son, en efecto, víctimas de abuso en una dimensión nueva y devastadora. Aunque no haya contacto físico directo ni se pueda identificar al agresor, y aunque a veces llegan a enterarse solo tras la circulación de sus imágenes, el uso de su foto en situaciones de abuso sexual explícito constituye una violación profunda de su autonomía y dignidad, que convierte su imagen en objeto de explotación.
Esta manipulación digital impone una experiencia de abuso indirecta pero profundamente traumatizante. La víctima experimenta una violación a su identidad y privacidad, ya que su imagen es transformada y compartida sin control, sumiéndola en una situación que implica vergüenza, humillación y vulnerabilidad.
En muchos casos, esta experiencia provoca síntomas de estrés postraumático, ansiedad y depresión, similares, no idénticos, a los de una situación de abuso físico o a través de medios virtuales, ya que la exposición a este tipo de contenido es una invasión emocional grave.
Además, la circulación de estas imágenes agrava la posibilidad de traumatización, ya que la persona sabe que el contenido podría estar en internet indefinidamente y al alcance de cualquiera, incluyendo conocidos o familiares. Así, los efectos psicológicos de esta nueva forma de abuso se extienden, provocando un sufrimiento prolongado que, de nuevo, reproduce los efectos de un abuso sexual.
La violencia sexual es una forma de dominación de una persona en situación de vulnerabilidad donde se consigue satisfacción sexual. En los casos donde ocurre en la infancia, estos factores son indisolubles. El goce pederástico se encuentra tanto en la satisfacción sexual obtenida como en la pulsión de dominación sobre la víctima.
Esta dimensión de control y poder ha llevado a que, desde hace tiempo, el análisis de estas prácticas aberrantes se enmarca en la categoría de género, donde se visibiliza la violencia ejercida como una expresión de dominación patriarcal y una vulneración profunda de los derechos infantiles, así, no solo es una satisfacción sexual perversa, sino un acto de poder que somete y destruye la autonomía de las víctimas.
Estas nuevas formas de abuso también evidencian la marca de la naturalización de la violencia contra la infancia, reflejando cómo la explotación de imágenes de bebés, niños, niñas y adolescentes se convierte en un crimen de orden colectivo, pese a que cada víctima sufra de forma individual. El abuso deja de ser solo un ataque privado contra una persona y se transforma en una manifestación de violencia estructural, donde la sociedad participa indirectamente al permitir que estas prácticas se extiendan y normalicen también en el ámbito digital.
En el último mes, se conocieron al menos dos denuncias contra adolescentes por vender fotos íntimas de sus compañeras editadas con inteligencia artificial, uno en un colegio de San Martín, en la provincia de Buenos Aires, y otro en Resistencia, Chaco.
El uso de las deep fake
Las nuevas tecnologías utilizan algoritmos avanzados para crear imágenes o videos falsos que parecen auténticos. En estos deep fakes, el rostro de una persona, en este caso de un niño, niña o adolescente, es digitalmente superpuesto en otra imagen o video de manera que parece real. La tecnología de deep fake utiliza redes neuronales, especialmente las llamadas redes generativas antagónicas (GAN) , para “aprender” de millones de imágenes y videos, produciendo resultados que engañan a la vista humana.
Es preocupante observar que algunos adolescentes, sin plena conciencia del daño que causan, producen deep fakes utilizando fotos de sus propias compañeras, imágenes que pueden ser luego adquiridas por adultos pederastas incentivándolos con la promesa de una retribución económica.
Esta práctica revela no solo la naturalización del uso de la imagen para la explotación sexual, sino también el impacto de una cultura pornográfica que trivializa la representación de los cuerpos, especialmente los de niñas y adolescentes, como meros objetos de consumo. En este contexto, muchos jóvenes parecen creer que, al tratarse de ‘solo de una foto’, no hay consecuencias graves.
Al mismo tiempo muchos de estos criminales que compran también crean sus propias imágenes con las tomadas de las redes o de sus entornos diarios.
Estos contenidos novedosos, en su mayoría distribuidos en redes sociales y foros de internet, plantean una crisis de derechos humanos y un riesgo de salud mental que trasciende lo que conocíamos hasta ahora.
La facilidad con la que este material se produce y distribuye en redes expone a las víctimas a un daño irreparable, creando no solo una violación digital de su imagen, sino una perpetuación del trauma psicológico y una huella digital indeleble. Las víctimas experimentan sentimientos de humillación y pérdida de control, mientras que el anonimato de los creadores y distribuidores dificulta la intervención efectiva de las autoridades.
La normalización de este contenido supone un riesgo extra: distorsiona las percepciones de consentimiento, vulnera el respeto a la infancia y establece una narrativa peligrosa donde el cuerpo de los bebés, niños, niñas y adolescentes es explotado como objeto visual. En Argentina la exposición a estos contenidos está alcanzando niveles preocupantes, evidenciando la necesidad urgente de una intervención estructural.
Según Ocedic, el Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral que toma datos del Ministerio Público Fiscal de la Ciudad de Buenos Aires, en 2023 se registraron 95.600 casos, y en lo que va de 2024 ya se han recibido más de 70.000 denuncias, lo que permite proyectar un número aún mayor para finales de año. La tendencia fue en crecimiento con 86.867 casos en 2022 y 71.797 en 2021. No se trata aquí de deep fake, pero la línea puede ser difusa.
El material de abuso sexual infantil producido por adultos, traducido en videos y fotografías, abarca a bebés hasta adolescentes, y es distribuido, facilitado, vendido y consumido entre personas que integran redes internacionales de explotación sexual de niños, niñas y adolescentes en general a través de las criptomonedas.
Una vez más es importante hacer un llamado a la acción para abordar el abuso sexual en todas sus formas, inclusive la manipulación de imágenes con inteligencia artificial.
La combinación de educación digital, políticas públicas eficaces, legislación, justicia y el compromiso de las plataformas digitales es esencial para detener esta práctica y proteger la salud mental y los derechos humanos de las víctimas.
Argentina, como el resto del mundo, se enfrenta a un reto sin precedentes en el que la tecnología puede ser un arma o una herramienta de protección. Ojalá estuviéramos a la altura de la protección que la infancia se merece.
* Sonia Almada: es Lic. en Psicología de la Universidad de Buenos Aires. Magíster Internacional en Derechos Humanos para la mujer y el niño, violencia de género e intrafamiliar (UNESCO). Se especializó en infancias y juventudes en Latinoamérica (CLACSO). Fundó en 2003 la asociación civil Aralma que impulsa acciones para la erradicación de todo tipo de violencias hacia infancias y juventudes y familias. Es autora de tres libros: La niña deshilachada, Me gusta como soy y La niña del campanario.