Google, Meta y Microsoft se unen para combatir imágenes de abuso sexual infantil creadas con IA

Este proyecto alerta que 104 millones de archivos de sospecha de material de abuso sexual de niños, niñas y adolescentes fueron reportados en el último año

Guardar
Las empresas que hacen parte del proyecto tendrán que someter sus IAs a robustas pruebas para comprobar que no pueden generar imágenes perjudiciales.  (Imagen Ilustrativa Infobae)
Las empresas que hacen parte del proyecto tendrán que someter sus IAs a robustas pruebas para comprobar que no pueden generar imágenes perjudiciales. (Imagen Ilustrativa Infobae)

Empresas líderes como Google, Meta, Microsoft, OpenAI y Amazon han unido fuerzas en un proyecto pionero que aspira a establecer normativas sólidas para prevenir que la IA genere imágenes de abuso sexual infantil.

Este proyecto, impulsado por Thorn y All Tech is Human, busca enfocar el poder transformador de la IA hacia un progreso que resguarde los derechos y la integridad de los menores.

La iniciativa subraya la importancia de utilizar bases de datos limpias para el entrenamiento de modelos de IA. Las empresas han asumido el compromiso de asegurarse de que los datos empleados para alimentar sus sistemas no contengan imágenes que exploten a menores.

Además, las empresas tecnológicas deberán implementar mecanismos robustos de control y pruebas rigurosas para demostrar que sus modelos de IA generativa están libres de la capacidad de crear imágenes de abuso sexual infantil.

Google junto con otras empresas tecnológicas se comprometió a utilizar bases de datos limpias. REUTERS/Steve Marcus
Google junto con otras empresas tecnológicas se comprometió a utilizar bases de datos limpias. REUTERS/Steve Marcus

Este proyecto también refuerza la idea de que la innovación tecnológica debe ir de la mano con una firme ética de desarrollo. En su búsqueda por explorar los límites de lo posible, la IA no debe traspasar los límites de lo moralmente aceptable.

La magnitud del problema que estas directrices buscan mitigar es alarmante. Solo en Estados Unidos, más de 104 millones de archivos sospechosos de contener material de abuso sexual infantil fueron reportados en 2023, según datos proporcionados por Thorn.

Esta cifra refleja la urgencia de establecer barreras digitales efectivas contra la proliferación de tales contenidos en la red.

¿Cómo la IA puede afectar la integridad de menores?

La inteligencia artificial generativa, aunque posee un enorme potencial para la innovación, también representa un riesgo significativo para la protección y seguridad de los menores, por lo que merece atención urgente.

La IA podría afectar las investigaciones policiales de este tipo de delitos. (Imagen ilustrativa Infobae)
La IA podría afectar las investigaciones policiales de este tipo de delitos. (Imagen ilustrativa Infobae)

De acuerdo con el documento que sustenta el proyecto anteriormente mencionado, la IA puede afectar el proceso de identificación de víctimas con la proliferación de imágenes falsas.

Además, esta tecnología puede ser utilizada para intensificar prácticas de acoso, como el grooming y la sextorsión, al producir contenido que simula acciones y poses explicitas sin necesidad de material inicial explícito.

Este tipo de contenido podría también tener el potencial de aumentar los delitos de contacto físico. “La normalización de este material también contribuye a otros resultados perjudiciales para los niños”, se lee en el documento.

Los modelos de IA generativa pueden ser utilizados por depredadores para compartir consejos sobre cómo cometer abusos de manera efectiva, incluyendo formas de coaccionar a las víctimas, destruir evidencias o manipular material de abuso para evitar la detección.

La generación de imágenes sexuales con IA no consensuadas es un fenómeno que se extiende a personas adultas. (Imagen ilustrativa Infobae)
La generación de imágenes sexuales con IA no consensuadas es un fenómeno que se extiende a personas adultas. (Imagen ilustrativa Infobae)

Fenómeno de los deepfakes sexuales no consensuados

El fenómeno de la creación y distribución de imágenes no consensuadas mediante inteligencia artificial se ha expandido más allá de los menores, afectando también a adultos, incluyendo figuras públicas y celebridades.

Una reciente investigación realizada por Forbes destapó cómo eBay, la conocida plataforma de subastas en línea, se había convertido en un mercado para la venta de contenido explícito falso de celebridades reconocidas.

Utilizando herramientas avanzadas de inteligencia artificial y edición como Photoshop, se generaron imágenes sexualmente explícitas de al menos 40 personalidades famosas, entre ellas Margot Robbie, Selena Gómez y Jenna Ortega.

Las celebridades son víctimas de la venta deepfakes sexuales no consensuados. (Instagram: Taylor Swift, Selena Gomez y Jenna Ortega)
Las celebridades son víctimas de la venta deepfakes sexuales no consensuados. (Instagram: Taylor Swift, Selena Gomez y Jenna Ortega)

Sorprendentemente, una tienda en eBay ofrecía a la venta más de 400 productos que contenían fotos alteradas de celebridades como Taylor Swift, Selena Gómez, Katy Perry, Ariana Grande y Alexandria Ocasio-Cortez, presentándolas en situaciones comprometedoras.

La reacción de eBay ante la alerta de Forbes fue inmediata, procediendo a la eliminación de cientos de estas fotografías falsas y a la suspensión de las cuentas de los vendedores implicados.

Este incidente subraya la urgencia de implementar medidas más rigurosas para combatir la diseminación de contenido digital generado sin consentimiento, resaltando la necesidad de un marco regulatorio más estricto que proteja la integridad y privacidad de todas las personas en el entorno digital.

Guardar