En el reciente informe del Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (NCMEC, por sus siglas en inglés), se reveló que la explotación sexual infantil en línea está experimentando un alarmante aumento, adoptando formas novedosas mediante el uso de imágenes y videos generados por inteligencia artificial.
Durante el año 2023, se reportaron más de 36,2 millones de casos de abuso a menores en Internet, lo que representa un incremento del 12% en comparación con el año anterior.
Este crecimiento incluye una preocupante tendencia: la creación de material de abuso infantil utilizando inteligencia artificial, que ahora se monitorea como una nueva categoría desde el 2023, registrando 4.700 informes de imágenes o videos generados por IA que explotan sexualmente a menores.
Por qué los deepfakes agravan el problema
Uno de los aspectos más perturbadores destacados en el reporte es el uso de la inteligencia artificial para fabricar deepfakes, imágenes o videos sexualmente explícitos de niños, basados en fotografías reales, o para generar contenido que presenta a niños computarizados en actos sexuales gráficos.
“Para los niños vistos en estos deepfakes y sus familias, es devastador”, destaca el reporte del NCMEC, señalando además cómo este tipo de contenido dificulta la identificación de verdaderas víctimas de abuso infantil. Además, tal explotación financiera y emocional puede extenderse ante la falta de acciones contundentes.
El volumen de reportes que implican material de abuso sexual infantil (CSAM, por sus siglas en inglés) recibidos solo durante el 2023 ascendió a más de 35,9 millones, de los cuales más del 90% fue subido desde fuera de los Estados Unidos.
Se señaló también que aproximadamente 1,1 millones de estos reportes fueron referidos a la policía de EE.UU., destacando que 63.892 de estos reportes eran urgentes o involucraban a un niño en peligro inminente. Este año, 245 empresas han reportado al CyberTipline del NCMEC, de un total de 1.600 compañías registradas mundialmente en el programa de reporte de ciberdenuncias.
Cabe señalar que los proveedores de servicios de Internet con base en EE.UU., incluidas las plataformas de redes sociales, están legalmente obligados a reportar instancias de CSAM al CyberTipline cuando tienen conocimiento de ellas.
Qué pasa con el chantaje sexual financiero
El NCMEC expresó su preocupación no solo por la alarmante tendencia en el aumento de material generado por IA, sino también por el uso del chantaje sexual financiero. En este esquema, un depredador en línea engaña a un niño para que envíe imágenes o videos desnudos y luego exige dinero.
Este año, se han identificado algunos casos en los que las familias y los niños fueron extorsionados económicamente por delincuentes que utilizaban CSAM creado con IA.
Sin embargo, el NCMEC y las fuerzas del orden enfrentan desafíos para actuar basándose en algunos reportes, incluidos aquellos generados por algoritmos de moderación de contenido, sin intervención humana. Esto ha evidenciado una desconexión entre el volumen de informes presentados y la calidad de estos, lo que en ocasiones impide que la policía investigue potenciales abusos infantiles generados por algoritmos de moderación de contenido.
“La relativamente baja cantidad de empresas que informan y la pobre calidad de muchos reportes subrayan la continua necesidad de acciones por parte del Congreso y la comunidad tecnológica global”, señala el informe del NCMEC.
En el contexto legal de Estados Unidos, la creación de material que muestre menores de edad participando en conductas sexualmente explícitas constituye un delito federal, según ha informado un fiscal de Massachusetts del Departamento de Justicia, quien prefirió mantenerse en el anonimato.
Sin embargo, la creciente preocupación por la explotación infantil en línea, exacerbada por la complicidad de la inteligencia artificial, pone de relieve la urgencia de abordar esta problemática con medidas concretas y efectivas.