A la hora de desarrollar algoritmos es importante contemplar que haya diversidad en los datos que nutren a esos sistemas. Caso contrario, la inteligencia artificial desarrollada a partir de esa información podría replicar y potenciar sesgos. De ahí que cada vez sea más importante tener en cuenta el aspecto ético en la generación de esta forma de tecnología.
El punto es que si bien hoy en día tienen las compañías son conscientes de esta situación, todavía no se ha logrado superar ciertos obstáculos y limitantes para lograr tecnologías más inclusivas.
Según un reciente estudio de IBM, realizado en conjunto con Oxford Economics, el 68% de las organizaciones encuestadas reconoce que tener un lugar de trabajo diverso e inclusivo es importante para mitigar el sesgo en la IA.
Sin embargo, los hallazgos indican que los equipos de IA siguen siendo sustancialmente menos diversos que la fuerza laboral de sus organizaciones: 5,5 veces menos inclusivo para las mujeres, 4 veces menos inclusivo para las personas de la comunidad LGBT+, entre otros.
“Dado que muchas empresas en la actualidad utilizan algoritmos de IA en sus negocios, se enfrentan a crecientes demandas internas y externas para diseñar estos algoritmos para que sean justos, seguros y confiables; sin embargo, ha habido poco progreso en la industria en la incorporación de la ética de la IA en sus prácticas”, dijo Jesús Mantas, Global Managing Partner de IBM Consulting.
En el reporte, que se basa en la encuesta a 1.200 ejecutivos en 22 países en 22 industrias, no se detalla el motivo qué lleva a las compañías a incluir menos diversidad en los equipos de IA; pero se puede analizar esta información a la luz de otros datos vinculados con esta temática.
Según un informe de la Unesco, solo un 33% de las mujeres que cursan estudios superiores en el mundo escogen carreras científicas y tecnológicas. El organismo internacional precisó que apenas el 3% de las estudiantes mujeres que escogen cursar estudios superiores eligen tecnología, información y comunicaciones; el 5% escoge ciencias naturales, matemáticas y estadística.
En tanto que el 8% de las estudiantes se decanta por ingeniería, fabricación y construcción; y el 15% escoge carreras relacionadas con la salud y el bienestar, como medicina o enfermería.
“Existen numerosos obstáculos asociados a estas trayectorias educativas, desde los estereotipos que afrontan las niñas hasta las responsabilidades familiares y los prejuicios que enfrentan las mujeres al momento de elegir su campo de estudio”, destaca la Unesco en dicho reporte.
Los estereotipos se construyen a través de publicidades, publicaciones, relatos que se repiten en la sociedad y en los medios. Diferentes investigadores han puntualizado que el advenimiento de la computadora personal en los años 80 y su promoción, desde las publicidades, como un producto relacionado con el mundo de los hombres fue creando modelos de exclusión para las mujeres.
Estudios de marketing realizados durante las décadas de los 80 y los 90 identificaron que era más probable que sus docentes y familiares alentaran a los varones a estudiar matemática, ciencia y tecnología. Se vinculó este mundo con ese segmento y así se fue creando un relato que decía que la computación o la tecnología “era cosa de hombres”, lo cual fue haciendo que cada vez menos mujeres y otras comunidades se abocaran al estudio de estas disciplinas.
Por otra parte, un estudio realizado por investigadores de la Universidad de Michigan y Filadelfia llegó a la conclusión de que los profesionales LGTB+ dentro de las disciplinas STEM (ciencia, tecnología, ingeniería y matemática) tenían más probabilidades de experimentar limitaciones profesionales, acoso y devaluación profesional que sus pares no LGBTQ. También informaron que era más probable que tuvieran la intención de abandonar las disciplinas STEM, a raíz de esta situación.
“Los estereotipos que consumimos crean un horizonte de posibilidades y determinan lo que es esperable de cada género. A partir de estas imágenes definimos cómo percibimos a los demás y a nosotros mismos, e incluso nos predisponen a adoptar ciertas actitudes y a tomar ciertas decisiones”, analizó Laura Mangifesta, comunicadora especialista en Tecnología, en este artículo donde analiza la brecha de género en tecnología.
“Una de las causas de los sesgos algorítmicos es la falta de diversidad en los equipos que desarrollan IA y el otro motivo es la falta de formación de esos equipos en cuestiones de género. Muchas veces no alcanza con sumar más diversidad sino que también es necesario capacitar a esos desarrolladores para que sean conscientes de esta situación y tengan un enfoque más inclusivo”, analiza Cecilia Danesi, profesora e investigadora en Inteligencia Artificial y Derecho, en diálogo con Infobae.
Y añade: “Es importante destacar que se debe incluir capacitación en ciencias sociales, ética y diversidad en las carreras vinculadas con el desarrollo de este tipo de tecnologías porque los algoritmos impactan en la vida de la sociedad en múltiples aspectos”.
Qué hacer ante esta situación
El primer paso para cambiar es dar cuenta de la situación de desigualdad que hay en los equipos de IA, y eso es algo que casi 7 de las 10 empresas encuestadas ya reconoció, tal como se mencionó anteriormente. A su vez, el 88% de los líderes de América Latina reconoce la importancia de la IA ética.
Los próximos pasos son tomar iniciativas concretas para sumar más diversidad en esos equipos que elaboran algoritmos que pueden condicionar diferentes aspectos de la vida. En relación a esto, el estudio de IBM recomienda algunas acciones para los líderes empresariales, entre las que se incluyen las siguientes:
1. Adoptar un enfoque multidisciplinario y de colaboración: la IA ética requiere un enfoque holístico y un conjunto integral de habilidades de todas las partes involucradas en el proceso. Los ejecutivo C-Suite, diseñadores, científicos del comportamiento, científicos de datos e ingenieros de IA tienen cada uno un papel distinto que desempeñar en el recorrido hacia una IA confiable.
2. Establecer la gobernanza de la IA para hacer operativa la ética de la IA: adoptar un enfoque holístico para incentivar, administrar y gobernar las soluciones de IA en todo su ciclo de vida, desde establecer la cultura adecuada para fomentar la IA de manera responsable, hasta prácticas y políticas para productos.
3. Llegar más allá de la propia empresa para asociarse: ampliar el enfoque identificando e involucrando a socios tecnológicos clave enfocados en IA, académicos, startups y otros socios del ecosistema para establecer una “interoperabilidad ética”.
SEGUIR LEYENDO: