Por qué Amazon dejó de utilizar una inteligencia artificial que revisaba los CV de posibles candidatos

El sistema analizaba automáticamente los antecedentes laborales, capacitaciones y otras características de los posibles futuros empleados, sin embargo se halló un error que hizo que la empresa dejara de utilizarlo.

Guardar
La compañía suspendió un sistema
La compañía suspendió un sistema automático de selección de candidatos por considerar que tenía sesgos sexistas

Amazon decidió dejar de lado un sistema de inteligencia artificial (IA) que utilizaba para contratar empleados por considerarlo sexista, según publicó Reuters.

La compañía comenzó a construir, en 2014, una herramienta digital que analizaba los currículums de los candidatos con el objetivo de automatizar y optimizar las búsquedas.

Este dessarrollo se llevó a cabo en el centro de ingeniería de Edimburgo, que tenía la misión de desarrollar una IA que pudiera rastrear la web con el fin de identificar talentos para incorporar a la compañía.

El grupo creó 500 modelos informáticos y los entrenaron para que reconocieran unos 50.000 términos que aparecían en los CV de los candidatos que se habían presentado en los últimos 10 años.

Un año después, la empresa se dio cuenta de que el software calificaba a los postulantes a los empleos técnicos con un sesgo en contra de las mujeres.

Por qué el algoritmo prefería a los hombres

Esto ocurrió porque el algoritmo había sido entrenado con currículums de candidatos compilados a lo largo de una década y la mayoría de esos candidatos eran hombres, entonces la IA infirió que ser hombre era un requisito necesario o convenientes para los puestos técnicos.

Así fue que terminó haciendo selecciones donde se favorecía a los hombres. Los currículums de mujeres terminando quedando excluidos, a pesar de que contaran con la formación técnica adecuada para los puestos a los que se presentaban.

"Era como el Santo Grial, todo el mundo lo quería", explicó un empleado de Amazon a Reuters. Luego de que se hallara este inconveniente, Amazon modificó los programas para que fueran neutrales, pero ese experimento no tuvo el éxito esperado: el seso persistía en el sistema, así es que finalmente la compañía decidió disolver el programa a comienzos de 2017, pero el tema recién se conoce hoy, a través de la publicación de Reuters.

De todos modos, los encargados de hacer contrataciones dijeron que si bien miraban las recomendaciones que hacía la IA, nunca se guiaron exclusivamente por esa información a la hora de contratar recursos.

Esta investigación es un ejemplo más que da cuenta de que todavía quedan muchos desafíos por afrontar a la hora de utilizar algoritmos.

Éste no es el primer caso donde un sistema muestra limitaciones o discrimina a raíz del entrenamiento recibido: ocurrió con el bot Tay en Twitter que hacía comentarios racistas y apología Nazi o en Facebook que fue acusado de hacer discriminación de género en las ofertas laborales que muestra en su plataforma.

Cómo se soluciona

El tema de la ética algorítmica no es nueva. Son varios los expertos que creen que hay que comenzar a trabajar en este aspecto a la hora de desarrollar inteligencia artificial. De otra manera, los sistemas reproducirán las limitaciones y sesgos del paquete de datos con los que se los entrena.

De hecho en Europa ya se designó un comité de 52 integrantes del mundo académico y empresarial, que asesorarán a la comisión europea en el desarrollo de políticas vinculadas con esta tecnología.

MÁS SOBRE ESTE TEMA: 

Las 6 formas en que los algoritmos están controlando tu vida

Amazon eliminó productos con símbolos nazis

Guardar