El aumento de los materiales de abuso sexual infantil generados por inteligencia artificial (IA) representa un nuevo y desafiante frente en la lucha contra esta epidemia digital. Investigadores de la Universidad de Stanford, en un informe publicado el lunes 22 de abril de 2024, alertan sobre la creciente amenaza que suponen estas tecnologías emergentes para las autoridades, ya limitadas por tecnologías anticuadas y leyes obsoletas.
La eficacia del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), encargado de coordinar la lucha contra este tipo de contenidos, se ve seriamente comprometida por la falta de recursos necesarios para combatir esta nueva forma de delito, según citó The New York Times.
El informe destaca que, en el último año, los avances en tecnologías de IA han simplificado considerablemente la creación de imágenes explícitas de menores, elevando exponencialmente el volumen de material de abuso sexual infantil (CSAM) en circulación.
Shelby Grossman, uno de los autores del estudio, advierte que, “sin duda, en los próximos años, la CyberTipline se verá inundada de contenido de IA que parece muy realista, dificultando aún más para las fuerzas del orden identificar a los verdaderos niños que necesitan ser rescatados”.
La CyberTipline, establecida en 1998, opera como el principal repositorio federal para todos los informes sobre CSAM en línea, utilizada por las fuerzas de seguridad en la investigación de estos crímenes. Sin embargo, enfrenta serios desafíos, ya que muchos de los consejos recibidos están incompletos o plagados de inexactitudes.
El tamaño reducido de su plantilla ha luchado por mantenerse al día con el volumen de reportes, que fue menos de la mitad de “accionables” en el 2022, debido a la falta de información suficiente por parte de las empresas denunciantes o porque la imagen en una denuncia se había difundido rápidamente en línea y se reportaba demasiadas veces.
Según datos del informe, en un solo día a principios de este año, la CyberTipline recibió un récord de un millón de informes de CSAM, saturando temporalmente la capacidad de respuesta de los investigadores. Este pico inusual resultó estar relacionado mayormente con la difusión de una imagen dentro de un meme, compartido en plataformas para expresar indignación, no con intención maliciosa.
Los desafíos tecnológicos añaden otra capa de complejidad al esfuerzo del NCMEC. Según Alex Stamos, otro de los autores del informe, el NCMEC y sus contratistas están limitados por regulaciones que les impiden usar proveedores de computación en la nube, requiriendo en cambio que las imágenes se almacenen localmente en computadoras.
Esta restricción dificulta la construcción y utilización de hardware especializado necesario para crear y entrenar modelos de IA para sus investigaciones. “Un millón de imágenes idénticas ya es bastante difícil, un millón de imágenes separadas creadas por IA los rompería”, afirmó Stamos.
Ante la creciente indignación pública sobre la proliferación de imágenes de abuso sexual de niños en línea, recientemente se intensificó el escrutinio sobre la responsabilidad de grandes plataformas tecnológicas en la protección de los menores. Durante una audiencia con los directores ejecutivos de Meta, Snap, TikTok, Discord y X, los legisladores criticaron severamente a estas empresas por no hacer lo suficiente para proteger a los niños en línea.
La legislación que aumente el financiamiento del NCMEC y le otorgue acceso a tecnología más avanzada fue defendida tanto por el centro como por los investigadores de Stanford, quienes accedieron a entrevistas con empleados y sistemas del centro para demostrar las vulnerabilidades de los sistemas que necesitan actualización.
La organización enfatizó que “a lo largo de los años, la complejidad de los reportes y la gravedad de los crímenes contra niños siguen evolucionando”, abogando por la adopción de soluciones tecnológicas emergentes en todo el proceso de la CyberTipline para salvaguardar a más niños y responsabilizar a los delincuentes.
El informe de Stanford también subraya la necesidad de que el Centro Nacional para Niños Desaparecidos y Explotados adapte su línea de consejos para que las fuerzas del orden puedan determinar qué informes implican contenido generado por IA. Además, insta a las empresas que denuncian material potencial de abuso en sus plataformas a completar los formularios de manera exhaustiva.