Las imágenes falsas de desnudos creadas con IA se han convertido en la peor pesadilla para los adolescentes en EEUU

Estas fotos, creadas al fusionar el rostro de las víctimas con cuerpos de otras personas, han provocado acoso. Los afectados, principalmente mujeres jóvenes, enfrentan vergüenza y miedo

Guardar
Los estudiantes afectados, principalmente mujeres
Los estudiantes afectados, principalmente mujeres jóvenes, enfrentan una combinación de vergüenza, miedo y pérdida de control sobre su propia imagen

El uso de aplicaciones de inteligencia artificial (IA) para crear imágenes desnudas falsas de adolescentes está causando un impacto profundo en las comunidades escolares de los Estados Unidos.

Los estudiantes afectados, principalmente mujeres jóvenes, enfrentan una combinación de vergüenza, miedo y pérdida de control sobre su propia imagen. Estas fotos, creadas al fusionar el rostro de las víctimas con cuerpos desnudos, han incitado juicio y acoso, a pesar de que los propios compañeros de clases saben que son falsas.

El fenómeno se hizo particularmente evidente en una escuela secundaria en Westfield, Nueva Jersey, hace seis meses, cuando las imágenes se compartieron en chats grupales, dejando a las estudiantes humilladas.

“Las mirarían como sucias, pese a que dijeran que era una foto falsa,” dijo una adolescente de Las Vegas entrevistada por Human Factor, una firma especializada en resolución de conflictos que investigó el caso.

Investigaciones y Datos Recabados

La firma Human Factor entrevistó a estudiantes, padres y miembros de la comunidad en Westfield durante dos días en febrero, y luego en marzo y abril, encuestaron a más de 1.000 estudiantes, profesores y padres a nivel nacional.

El estudio, citado por The Wall Street Journal (WSJ) reveló que el 73% de los encuestados cree que la víctima es más afectada por estas fotos falsas que quienes las crearon. “Incluso si se desmentía que la imagen era falsa, la persona aún sería acosada,” sostuvo un estudiante de Eldorado, Illinois.

El problema se agrava debido a la habilidad de las herramientas de IA para crear imágenes increíblemente realistas, causando que dos tercios de los estudiantes encuestados asuman que la foto es real si parece auténtica. Solo un tercio manifestó que preguntaría a la víctima si la imagen es genuina.

Las investigadoras de Human Factor encontraron que los padres rara vez ven estas imágenes, ya que suelen compartirse en plataformas de chat privado o de mensajes efímeros como Snapchat. Esto significa que la difusión de estas fotos ocurre sin mucho impedimento. Ante la falta de intervención de adultos y el miedo de los estudiantes a meterse en problemas, las imágenes falsas continúan su circulación sin mayores obstáculos.

Los padres, rara vez ven
Los padres, rara vez ven estas imágenes, ya que suelen compartirse en plataformas de chat privado o de mensajes efímeros como Snapchat. (REUTERS/Dado Ruvic)

El Caso de Westfield, Nueva Jersey no es el único

El caso de Westfield no es un hecho aislado. En muchas escuelas a lo largo de Estados Unidos se están reportando incidentes similares, lo que pone de manifiesto el alcance del problema.

En Beverly Hills, California, cinco estudiantes de una escuela secundaria fueron expulsados tras ser acusados de crear imágenes falsas de desnudos de sus compañeros.

De manera similar, un estudiante de una escuela secundaria en el estado de Washington fue también expulsado por actividades semejantes. Además, dos chicos adolescentes de una escuela secundaria en Miami, Florida, fueron arrestados y enfrentan cargos federales tras compartir imágenes falsas de desnudos de sus compañeros.

En marzo de 2023, el FBI emitió una advertencia pública en la que dejaba claro que es ilegal para cualquier persona, incluso para adolescentes, utilizar IA para crear material de abuso sexual infantil. “E incluso los adolescentes pueden enfrentarse a cargos severos si participan en estas actividades,” indicó el comunicado del FBI citado por el WSJ.

Investigaciones recientes revelan que la situación podría empeorar. Alrededor del 60% de los estudiantes encuestados por investigadores cree que sus compañeros utilizarían IA para generar imágenes falsas de desnudos.

El FBI advirtió que crear
El FBI advirtió que crear imágenes de abuso sexual infantil con IA es ilegal, incluso para adolescentes (Jesús Hellín/Europa Press)

Medidas y recomendaciones

Según los expertos, los padres deben conversar con sus hijos sobre el uso correcto de estas tecnologías de inteligencia artificial. Las escuelas también tienen un papel primordial en esta tarea y deben actualizar sus códigos de conducta escolares para incluir lineamientos claros sobre el uso de imágenes generadas por IA.

En estos nuevos códigos, es fundamental que se detallen las consecuencias de crear y compartir imágenes falsas de desnudos. Esto es importante para evitar confusiones y establecer un marco regulador específico. “Es crucial que los estudiantes comprendan las implicaciones legales y éticas del uso indebido de imágenes generadas por IA,” enfatizaron los investigadores.

Además, se sugiere que los centros educativos fomenten y habiliten mecanismos para que los estudiantes puedan reportar la aparición de estas imágenes tan pronto como las detecten.

Las investigaciones indican que crear una cultura de reporte y diálogo abierto puede contribuir significativamente a mitigar el problema. “La habilitación de canales para reportar puede prevenir la difusión y el daño potencial de estas imágenes falsas,” señalaron.

Otra recomendación clave es que las escuelas realicen ejercicios de simulacro junto a los estudiantes, simulando escenarios hipotéticos en los que puedan verse involucrados con el uso de IA generativa. Estos ejercicios, diseñados por los investigadores, permiten a los estudiantes explorar las consecuencias de sus acciones en un entorno controlado y seguro.

Adicionalmente, se recomienda que las instituciones educativas lleven a cabo campañas donde los estudiantes experimenten con herramientas de IA para generar imágenes. El objetivo es que los jóvenes tomen conciencia de los usos apropiados y de los riesgos asociados con su uso inapropiado.

Estas campañas pueden incluir talleres y actividades didácticas para reforzar el aprendizaje. Según los investigadores, “la experimentación dirigida y supervisada puede ser una herramienta educativa de gran valor.”

Este enfoque multidimensional no solo mejora la comprensión de los estudiantes sobre las implicaciones tecnológicas y éticas del uso de IA, sino que también establece un marco de norma y disciplina dentro de las escuelas. “Ya no es solo una cuestión tecnológica; es una cuestión social y educativa que todas las instituciones deben abordar activamente,” afirmaron los investigadores.

Los padres también juegan un rol crucial y deben estar equipados con herramientas y guías para entablar conversaciones efectivas con sus hijos sobre estos temas. Es vital que entiendan tanto los riesgos como las oportunidades que las nuevas tecnologías pueden traer a la vida de sus hijos. Según los especialistas, este diálogo no debe ser una conversación única, sino parte de una educación continua sobre la responsabilidad digital.

Guardar