Unesco revela los estereotipos que estaría produciendo la inteligencia artificial

Ante el creciente uso de IA en la vida cotidiana, la entidad de las Naciones Unidas dedicada a la educación, la ciencia, y la cultura destaca la importancia de abordar y corregir los prejuicios incorporados que amenazan la equidad de género

Guardar
La Unesco publicó un informe
La Unesco publicó un informe detallado y enfocado en analizar e identificar los estereotipos de género presentes en la IA (Reuters - Bruna Casas)

La UNESCO, entidad de las Naciones Unidas dedicada a la educación, la ciencia, y la cultura, ha publicado recientemente un informe detallado y enfocado en analizar e identificar los estereotipos de género presentes en las herramientas de procesamiento del lenguaje natural. Estas herramientas son la base sobre la cual funcionan las plataformas de inteligencia artificial (IA) generativa más utilizadas hoy en día. El estudio, denominado “Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes”, evidencia la existencia de sesgos contra el género femenino en los contenidos producidos por estas plataformas.

Según se desprende del informe, el uso de modelos de lenguaje está cada vez más extendido en diferentes esferas, desde el ámbito laboral hasta el educativo y personal. Este fenómeno pone de manifiesto la capacidad de la IA para influir sutilmente en las percepciones de millones de usuarios. Audrey Azoulay, directora general de la Unesco ha expresado su preocupación al respecto, señalando que incluso pequeños sesgos de género incorporados en el contenido de estos sistemas pueden tener un efecto amplificador, perpetuando y profundizando las desigualdades de género existentes en la sociedad.

La directora de la organización ha exhortado a los gobiernos a desarrollar e implementar regulaciones claras y a las empresas a sustentar un monitoreo y evaluación constante para identificar sesgos. Esta iniciativa busca alinear la práctica con la recomendación de la Unesco sobre la ética en la inteligencia artificial, respaldada unánimemente en 2021.

En la imagen de archivo,
En la imagen de archivo, Audrey Azoulay, directora general de la Unesco. EPA/WU HONG

El análisis enfatizó que, aunque los grandes modelos de lenguaje de código abierto, como Llama 2 de META y GPT-2 de OpenAI, notorios por su acceso gratuito, presentaron un sesgo de género marcado, el acceso a su código ofrece un camino hacia la mejora para abordar y disminuir estos sesgos mediante colaboraciones de la comunidad investigadora del mundo.

Por otro lado, los modelos con acceso más restringido, tales como GPT-3.5 y 4 (usados en ChatGPT) y Gemini de Google, implican retos mayores para abordar el sesgo de género, de acuerdo con lo apuntado en la investigación.

Hallazgos del estudio

En el desarrollo de la investigación se detectaron sesgos de género, homofobia y racismo a través de los contenidos generados por inteligencia artificial (IA), destacando la tendencia de asignar roles de trabajo y características de manera desigual. Al solicitar a plataformas de IA que “escriban una historia” sobre individuos de diferentes géneros, sexualidades y orígenes culturales, se encontró que los varones recibían roles más prestigiosos, mientras que las mujeres eran a menudo relegadas a trabajos tradicionalmente menos valorados. Además, el estudio desveló contenido negativo generado por IA sobre personas homosexuales y algunos grupos étnicos, lo cual pone en relieve la necesidad de revisar y mejorar los algoritmos utilizados por estas tecnologías.

La Unesco destacó ejemplos específicos de cómo las narrativas producidas por modelos de IA como Llama 2 y GPT-2 continuaban con los estereotipos. Los varones eran frecuentemente asociados con profesiones como ingeniero, médico o profesor y descritos con palabras como “aventurero” o “decidido”. Por otro lado, términos como “suave”, “amor” y roles de trabajo como “empleada doméstica” o “prostituta” eran más comunes en las historias sobre mujeres. Este tipo de contenido no solo refleja una visión sesgada de género sino también de sexualidad y etnia, con resultados preocupantes cuando los modelos fueron solicitados a completar frases sobre personas gay o narrar historias sobre diferentes grupos culturales.

Los hombres recibían roles más
Los hombres recibían roles más prestigiosos, por la IA, mientras que las mujeres eran a menudo relegadas a trabajos tradicionalmente menos valorados (Imagen Ilustrativa Infobae)

Los hallazgos del estudio indican que el 70% del contenido generado por Llama 2 en torno a personas homosexuales era negativo, con etiquetas que los ubicaban en lugares bajos dentro de la jerarquía social. Además, GPT-2 reflejaba una tendencia similar, involucrando a esta población en contextos que implicaban criminalidad y falta de derechos. En relación a la percepción de diferentes etnias, se observó un claro sesgo cultural, asignando a hombres británicos una amplia gama de ocupaciones profesionales, mientras que los varones zulúes (grupo étnico africano) eran más frecuentemente asociados a trabajos de menor prestigio, como guardas de seguridad o jardineros. Las mujeres zulúes, por su parte, eran categorizadas principalmente en roles domésticos.

Estos hallazgos subrayan la importancia de desarrollar tecnologías de IA que sean inclusivas y justas, evitando perpetuar estereotipos negativos y discriminación. A medida que la IA continúa integrándose en diversos aspectos de la vida cotidiana, es fundamental que sus algoritmos promuevan la diversidad y la equidad, en lugar de replicar prejuicios existentes. La investigación de la UNESCO es un llamado a la acción para que diseñadores y programadores de IA aborden estas deficiencias, asegurando que los avances tecnológicos beneficien equitativamente a todos los sectores de la sociedad.

Guardar

Últimas Noticias

De la escuela normal a la enseñanza abierta y flexible: por qué las aulas tienen que “abrazar la diversidad”

En diálogo con Ticmas, Rebeca Anijovich, Cecilia Cancio y Mariana Ferrarelli presentan su libro “Abrazar la diversidad en el aula. De la reflexión a la acción” (Paidós) y reflexionan sobre cómo promover prácticas inclusivas, diversificar estrategias docentes y transformar el protagonismo estudiantil en una oportunidad educativa
De la escuela normal a

Con más de 30 años de innovación, el SPEPM se prepara para transformar la educación de Misiones en 2025

El año próximo el Servicio Provincial de Educación Privada de Misiones (SPEPM) celebrará 32 años en un continuo ejercicio de compromiso para promover la educación de calidad en la provincia
Con más de 30 años

Educación del futuro en la Ciudad de Buenos Aires

Con más de 35 años de trayectoria, el Instituto Sudamericano Modelo trabaja la tecnología como eje transversal de su currícula; priorizando la creatividad, la autonomía, el arte y el deporte. Ticmas conversó con los directivos de inicial, primaria y secundaria
Educación del futuro en la

José Escamilla: “Es un mito que las personas solo aprendemos con un profesor enfrente”

En diálogo con Ticmas, el director asociado del Instituto para el Futuro de la Educación del Tec de Monterrey, anticipa la próxima edición del IFE Conference, que se realizará del 28 al 30 de enero de 2025, donde líderes globales se reúnen a pensar los desafíos de la innovación educativa y el impacto de la tecnología
José Escamilla: “Es un mito

La crisis de una habilidad básica: cae la comprensión lectora de los adultos

Las competencias de lectura y cálculo de los adultos retrocedieron o se mantuvieron estancadas durante la última década, según una evaluación de la OCDE en 31 países. Los especialistas advierten sobre la profundización de las desigualdades y las dificultades para revertir este panorama
La crisis de una habilidad