Los algoritmos pueden replicar sesgos raciales. Hay decenas de ejemplos que muestran cómo la inteligencia artificial puede discriminar a favor o en contra de ciertos grupos. A veces esto ocurre por un entrenamiento deficiente, con una base de datos limitada. Aunque, en ocasiones, también podría tratarse de una limitación intencional por parte de quienes los programan.
Hace una semana, la congresista estadounidense Alexandria Ocasio-Cortez planteó puntualmente el tema del sesgo racial en los algoritmos de reconocimiento facial y habló de la necesidad de encontrar una solución para este tema.
En sintonía con esta idea, investigadores del MIT presentaron un sistema que permite identificar y quitar, de manera automática, el sesgo que puede haber en un set de datos y generar una muestra más equilibrada y representativa de la diversidad para reentrenar a los algoritmos.
El algoritmo que desarrollaron puede aprender tanto una tarea específica, como es la detección de rostros, así como la estructura detrás de los datos de entrenamiento, lo cual le permite identificar y minimizar cualquier sesgo oculto.
En el documento se remarca que, en las pruebas realizadas, el algoritmo pudo reducir en más de un 60% el “sesgo categórico” en comparación con los resultados obtenidos con los modelos de detección facial que se emplean habitualmente.
Para entrenar a la inteligencia artificial, en la actualidad se requiere que haya algún nivel de intervención humana para definir bases de datos así como limitaciones o filtros específicos que se quiere que el sistema aprenda.
Este algoritmo desarrollado por el equipo del MIT puede analizar una base de datos, identificar los sesgos o limitaciones que se encuentran allí y hacer un nuevo muestreo para que el resultado sea más equitativo o justo.
MÁS SOBRE ESTE TEMA: