Detuvieron a un hombre en EEUU por usar IA para crear y distribuir miles de imágenes de abuso sexual infantil

Según los documentos de acusación, el detenido se enfrenta a una pena de hasta 70 años de prisión, aunque los fiscales indicaron que la condena recomendada podría ser cadena perpetua

Guardar
Steven Anderegg, un ingeniero de
Steven Anderegg, un ingeniero de Wisconsin, fue detenido por crear y distribuir imágenes de abuso sexual infantil. (Freepik)

Un ingeniero de software de Wisconsin fue arrestado el lunes 20 de mayo por presuntamente crear y distribuir miles de imágenes generadas por inteligencia artificial de material de abuso sexual infantil (CSAM). Steven Anderegg, de 42 años, es acusado de enviar imágenes de menores desnudos generadas por IA a un joven de 15 años a través de mensajes directos en Instagram, según documentos judiciales obtenidos por The Verge.

Anderegg, descrito por el FBI como “extremadamente hábil tecnológicamente”, con una formación en ciencias de la computación y “décadas de experiencia en ingeniería de software”, fue identificado después de que el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) reportara los mensajes que habría enviado en octubre de 2023.

Estos informes impulsaron a las autoridades a monitorear su actividad en la red social, obtener información de Instagram y, eventualmente, obtener una orden de registro.

De acuerdo con el diario The Guardian, el acusado produjo aproximadamente 13,000 imágenes hiperrealistas de niños desnudos o semidesnudos, muchas de ellas mostrando abusos sexuales explícitos perpetrados por hombres adultos. En la computadora portátil del acusado, las autoridades encontraron evidencia del uso de indicaciones extremadamente específicas para crear material abusivo.

El acusado envió material sexual
El acusado envió material sexual explícito de menores a un joven de 15 años por Instagram. (Imagen Ilustrativa Infobae)

La investigación reveló, además, que Anderegg había publicado una historia en Instagram en 2023 con una imagen realista de menores usando ropa de cuero temática BDSM (Sumisión y Sadismo y Masoquismo), e incentivaba a otros a “revisar” en Telegram. En mensajes privados, discutía su “deseo de tener relaciones sexuales con niños preadolescentes” y afirmaba tener “toneladas” de otras imágenes generadas por IA de CSAM en su Telegram.

“El anuncio de hoy envía un mensaje claro: usar IA para producir representaciones sexualmente explícitas de niños es ilegal, y el Departamento de Justicia no dudará en responsabilizar a quienes posean, produzcan o distribuyan material de abuso sexual infantil generado por IA”, declaró en un comunicado la Fiscal General Adjunta Principal Nicole M. Argentieri, jefa de la División Penal del Departamento de Justicia.

Anderegg permanece bajo custodia federal en espera de una audiencia de detención programada para el 22 de mayo. Según los documentos de acusación, se enfrenta a una pena de hasta 70 años de prisión si es condenado, aunque los fiscales señalan que “la condena recomendada podría alcanzar la cadena perpetua”.

El caso destaca un preocupante
El caso destaca un preocupante aumento del 12% en reportes de abuso sexual infantil en línea en 2023. (Jesús Aviles / Infobae)

Una práctica en preocupante aumento

La investigación de NCMEC reveló un aumento del 12% en los reportes de abuso sexual infantil en línea en 2023 en comparación con el año anterior, atribuido en parte al crecimiento del material generado por IA. NCMEC mostró su preocupación al afirmar: “Estamos profundamente preocupados por esta creciente tendencia, ya que los actores malintencionados pueden usar la IA para crear imágenes o videos sexualmente explícitos basados en cualquier fotografía de un niño real”, citó The Verge.

El caso de Steven Anderegg se encuentra entre los primeros en los que el FBI acusa a una persona por generar material de abuso sexual infantil utilizando IA. Lisa Monaco, fiscal general adjunta, indicó: “El departamento de justicia perseguirá agresivamente a aquellos que produzcan y distribuyan material de abuso sexual infantil, sin importar cómo se haya creado ese material”, publicó The Guardian.

El modelo de Stable Diffusion, desarrollado por la empresa británica Stability AI, ha sido utilizado previamente para generar imágenes abusivas. Un informe de 2022 del Observatorio de Internet de Stanford encontró material de abuso infantil en sus datos de entrenamiento.

Stability AI declaró que desde que asumió el desarrollo del modelo, ha implementado más salvaguardias. “Estamos comprometidos a prevenir el uso indebido de la IA y prohibimos el uso de nuestros modelos de imágenes para actividades ilegales”, aseguraron en un comunicado.

Guardar