Investigadores del MIT desarrollaron un algoritmo que permite corregir los sesgos raciales en los sistemas de reconocimiento facial

El programa identifica las limitaciones en la base de datos y luego genera un nuevo muestreo más equilibrado para reentrenar a la inteligencia artificial

Guardar
El sistema puede identificar los sesgos escondidos en la base de datos que se emplea para entrenar una inteligencia artificial (Shutterstock)
El sistema puede identificar los sesgos escondidos en la base de datos que se emplea para entrenar una inteligencia artificial (Shutterstock)

Los algoritmos pueden replicar sesgos raciales. Hay decenas de ejemplos que muestran cómo la inteligencia artificial puede discriminar a favor o en contra de ciertos grupos. A veces esto ocurre por un entrenamiento deficiente, con una base de datos limitada. Aunque, en ocasiones, también podría tratarse de una limitación intencional por parte de quienes los programan.

Hace una semana, la congresista estadounidense Alexandria Ocasio-Cortez planteó puntualmente el tema del sesgo racial en los algoritmos de reconocimiento facial y habló de la necesidad de encontrar una solución para este tema.

En sintonía con esta idea, investigadores del MIT presentaron un sistema que permite identificar y quitar, de manera automática, el sesgo que puede haber en un set de datos y generar una muestra más equilibrada y representativa de la diversidad para reentrenar a los algoritmos.

El algoritmo que desarrollaron puede aprender tanto una tarea específica, como es la detección de rostros, así como la estructura detrás de los datos de entrenamiento, lo cual le permite identificar y minimizar cualquier sesgo oculto.

En el documento se remarca que, en las pruebas realizadas, el algoritmo pudo reducir en más de un 60% el “sesgo categórico” en comparación con los resultados obtenidos con los modelos de detección facial que se emplean habitualmente.

El algoritmo desarrollado por MIT supervisa y corrige errores en el sistema.
El algoritmo desarrollado por MIT supervisa y corrige errores en el sistema.

Para entrenar a la inteligencia artificial, en la actualidad se requiere que haya algún nivel de intervención humana para definir bases de datos así como limitaciones o filtros específicos que se quiere que el sistema aprenda.

Este algoritmo desarrollado por el equipo del MIT puede analizar una base de datos, identificar los sesgos o limitaciones que se encuentran allí y hacer un nuevo muestreo para que el resultado sea más equitativo o justo.

MÁS SOBRE ESTE TEMA:

Guardar