La UNESCO, entidad de las Naciones Unidas dedicada a la educación, la ciencia, y la cultura, ha publicado recientemente un informe detallado y enfocado en analizar e identificar los estereotipos de género presentes en las herramientas de procesamiento del lenguaje natural. Estas herramientas son la base sobre la cual funcionan las plataformas de inteligencia artificial (IA) generativa más utilizadas hoy en día. El estudio, denominado “Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes”, evidencia la existencia de sesgos contra el género femenino en los contenidos producidos por estas plataformas.
Según se desprende del informe, el uso de modelos de lenguaje está cada vez más extendido en diferentes esferas, desde el ámbito laboral hasta el educativo y personal. Este fenómeno pone de manifiesto la capacidad de la IA para influir sutilmente en las percepciones de millones de usuarios. Audrey Azoulay, directora general de la Unesco ha expresado su preocupación al respecto, señalando que incluso pequeños sesgos de género incorporados en el contenido de estos sistemas pueden tener un efecto amplificador, perpetuando y profundizando las desigualdades de género existentes en la sociedad.
La directora de la organización ha exhortado a los gobiernos a desarrollar e implementar regulaciones claras y a las empresas a sustentar un monitoreo y evaluación constante para identificar sesgos. Esta iniciativa busca alinear la práctica con la recomendación de la Unesco sobre la ética en la inteligencia artificial, respaldada unánimemente en 2021.
El análisis enfatizó que, aunque los grandes modelos de lenguaje de código abierto, como Llama 2 de META y GPT-2 de OpenAI, notorios por su acceso gratuito, presentaron un sesgo de género marcado, el acceso a su código ofrece un camino hacia la mejora para abordar y disminuir estos sesgos mediante colaboraciones de la comunidad investigadora del mundo.
Por otro lado, los modelos con acceso más restringido, tales como GPT-3.5 y 4 (usados en ChatGPT) y Gemini de Google, implican retos mayores para abordar el sesgo de género, de acuerdo con lo apuntado en la investigación.
Hallazgos del estudio
En el desarrollo de la investigación se detectaron sesgos de género, homofobia y racismo a través de los contenidos generados por inteligencia artificial (IA), destacando la tendencia de asignar roles de trabajo y características de manera desigual. Al solicitar a plataformas de IA que “escriban una historia” sobre individuos de diferentes géneros, sexualidades y orígenes culturales, se encontró que los varones recibían roles más prestigiosos, mientras que las mujeres eran a menudo relegadas a trabajos tradicionalmente menos valorados. Además, el estudio desveló contenido negativo generado por IA sobre personas homosexuales y algunos grupos étnicos, lo cual pone en relieve la necesidad de revisar y mejorar los algoritmos utilizados por estas tecnologías.
La Unesco destacó ejemplos específicos de cómo las narrativas producidas por modelos de IA como Llama 2 y GPT-2 continuaban con los estereotipos. Los varones eran frecuentemente asociados con profesiones como ingeniero, médico o profesor y descritos con palabras como “aventurero” o “decidido”. Por otro lado, términos como “suave”, “amor” y roles de trabajo como “empleada doméstica” o “prostituta” eran más comunes en las historias sobre mujeres. Este tipo de contenido no solo refleja una visión sesgada de género sino también de sexualidad y etnia, con resultados preocupantes cuando los modelos fueron solicitados a completar frases sobre personas gay o narrar historias sobre diferentes grupos culturales.
Los hallazgos del estudio indican que el 70% del contenido generado por Llama 2 en torno a personas homosexuales era negativo, con etiquetas que los ubicaban en lugares bajos dentro de la jerarquía social. Además, GPT-2 reflejaba una tendencia similar, involucrando a esta población en contextos que implicaban criminalidad y falta de derechos. En relación a la percepción de diferentes etnias, se observó un claro sesgo cultural, asignando a hombres británicos una amplia gama de ocupaciones profesionales, mientras que los varones zulúes (grupo étnico africano) eran más frecuentemente asociados a trabajos de menor prestigio, como guardas de seguridad o jardineros. Las mujeres zulúes, por su parte, eran categorizadas principalmente en roles domésticos.
Estos hallazgos subrayan la importancia de desarrollar tecnologías de IA que sean inclusivas y justas, evitando perpetuar estereotipos negativos y discriminación. A medida que la IA continúa integrándose en diversos aspectos de la vida cotidiana, es fundamental que sus algoritmos promuevan la diversidad y la equidad, en lugar de replicar prejuicios existentes. La investigación de la UNESCO es un llamado a la acción para que diseñadores y programadores de IA aborden estas deficiencias, asegurando que los avances tecnológicos beneficien equitativamente a todos los sectores de la sociedad.