Cuáles son los principales errores y sesgos del reconocimiento facial y cómo se intenta resolverlos con inteligencia artificial

Los sistemas de reconocimiento facial, cada vez más extendidos, presentan una mayor proporción de errores cuando se aplican a mujeres y minorías étnicas. Parte del problema está en la falta de diversidad de quienes los desarrollan y en el “entrenamiento” de los algoritmos. ¿Puede la inteligencia artificial resolver los inconvenientes de la propia inteligencia artificial? Una empresa que genera imágenes de rostros falsos cree que sí

Guardar

Vivimos inmersos en aplicaciones que utilizan la inteligencia artificial (IA) y que ―supuestamente― nos hacen la vida más fácil. De hecho, muchas veces usamos la IA sin saberlo. Cada vez que la web nos recomienda una noticia, cada vez que desbloqueamos nuestro teléfono usando la cámara que reconoce nuestro rostro o cuando las redes sociales nos recomiendan contenido, los algoritmos están haciendo su trabajo. Mediante la combinación de inteligencia artificial y machine learning, las aplicaciones “aprenden” de nuestras elecciones, registran nuestros hábitos y proyectan esos datos para sugerirnos opciones.

Y no lo hacen de manera inocua.

La inteligencia artificial muchas veces replica y profundiza los sesgos de discriminación que existen en el mundo real: desfavorecen a las mujeres y a las minorías étnicas y, en cambio, favorecen a los hombres blancos. Uno de los capítulos más sensibles se registra en las tecnologías de reconocimiento facial: las cámaras registran rostros y la inteligencia artificial tiene la capacidad para identificar a la persona y hacer diversas asociaciones. Esta tecnología es utilizada en aeropuertos, en sistemas de seguridad y, cada vez más, en la apertura de cuentas bancarias digitales o cuando una persona se registra para trabajar en servicios de la llamada “economía de las plataformas”, como Uber o Rappi.

A pesar de que su uso es más bien reciente, muchos estudios académicos ya registran un historial de errores. En los EE.UU. se denunciaron muchos casos de hombres negros arrestados después de que el reconocimiento facial los identificara falsamente como sospechosos en casos penales. En pocas palabras, es más probable que el software de reconocimiento facial cometa errores al intentar reconocer a mujeres y a personas con tonos de piel más oscuros, y que acierte con los hombres y aquellos con tonos de piel más claros.

La tecnología de reconocimiento facial
La tecnología de reconocimiento facial se incorpora en los espacios públicos como una herramienta de seguridad y de control. (Imagen: David Pereiras / Envato)

Hace pocas semanas, un organismo de la Unión Europea publicó un borrador de regulaciones sobre el uso de inteligencia artificial que incluye algunas restricciones a las tecnologías de reconocimiento facial. Y en los EE.UU. algunas empresas de tecnología ya anunciaron que dejarán temporalmente de proporcionarles esta herramienta a las agencias de seguridad. De hecho, en 2019, San Francisco se convirtió en la primera ciudad de EE. UU. en prohibir su uso de esta tecnología por parte de las autoridades locales.

Sin embargo, uno de los países que más ha invertido recientemente en inteligencia artificial, incluida la tecnología de reconocimiento facial, es China. Ahí se implementan aplicaciones que ayudan al Gobierno a impulsar la vigilancia y ejercer control sobre la población.

Por qué los algoritmos discriminan

El motivo es simple: no solo existe una subrepresentación de mujeres y minorías étnicas entre los desarrolladores, sino que, además, muchas veces el “entrenamiento” de estas aplicaciones no tiene en cuenta la diversidad.

Para entender el problema hay que entender primero cómo funcionan algunos algoritmos de inteligencia artificial. Cuando se habla de “entrenar” algoritmos significa que los desarrolladores les brindan millones de datos para procesar. De esta manera, los algoritmos aprenden y definen su funcionamiento. En el caso del reconocimiento facial, dependiendo de las imágenes utilizadas para el entrenamiento, el software puede (o no) incorporar sesgos que ya existen en la realidad. Hasta hace poco, por ejemplo, las búsquedas de imágenes en Google de palabras como CEO o doctor (en inglés, de género único) arrojaban resultados con una abrumadora mayoría de hombres y muy pocas mujeres.

En el caso del reconocimiento
En el caso del reconocimiento facial, dependiendo de las imágenes utilizadas para el entrenamiento, el software puede (o no) incorporar sesgos que ya existen en la realidad. (Imagen: Envato)

Pero hay quienes prevén cómo resolver este problema. Generated Photos es una empresa que mediante el uso de inteligencia artificial desarrolla imágenes de rostros falsos. En un principio ofreció sus servicios como un insumo para el desarrollo de campañas de marketing y para entornos virtuales como los videojuegos. Luego descubrió que los rostros falsos —cuya falsedad es indetectable— pueden ser utilizados para entrenar otros algoritmos. Fue así que liberó un set de cientos de miles de fotos de rostros que pueden hacer ese trabajo considerando la diversidad.

¿Lo curioso? Esas imágenes son fotos de rostros falsos creados por una inteligencia artificial para entrenar a otra inteligencia artificial.

La plataforma permite elegir fotos falsas con diferentes características: edad, etnia, expresiones, género, color de ojos, color de pelo, si tiene anteojos de lectura o de sol y otro gran número de opciones. Generated Photos creó el primer set de datos tomando decenas de miles de capturas de alrededor de 70 modelos en estudios de todo el mundo. Después estuvieron meses para poder terminar de preparar la base de datos limpiando las imágenes, etiquetando los datos y organizando las fotos. Con todas las capturas listas, los desarrolladores utilizaron un sistema de inteligencia artificial para crear, a partir de esas imágenes, cientos de miles de nuevos rostros. Además, liberaron muchas de ellas en forma de código abierto para que otros las utilizaran. Esto provocó un nuevo problema: la utilización de rostros falsos para crear cuentas falsas en redes como Facebook, LinkedIn, Twitter o Instagram. ¿La posible solución o paradoja? Desarrollar una inteligencia artificial que pueda identificar un rostro falso creado por una inteligencia artificial, que a su vez fue entrenado por imágenes creadas por otra inteligencia artificial.

Ya existen páginas que, a modo de prueba, le preguntan a los usuarios si pueden reconocer si un rostro corresponde a una persona real o a una imagen generada por una computadora. Es el caso del experimento realizado por científicos de la Universidad de Washington, Which Face is Real, que les presenta a los usuarios dos rostros: uno creado por un algoritmo y otro real, y les pide identificar cuál es cuál. Es recomendable experimentar que, en la mayor parte de los casos, es imposible distinguir entre uno y otro.

En el sitio Which Face
En el sitio Which Face is Real se presentan dos imágenes y el usuario tiene que señalar cuál es real y cuál fue generada por inteligencia artificial (Imagen: gentileza)

Dilemas y límites del reconocimiento facial

Sharon Zhou, experta en inteligencia artificial de la Universidad de Stanford, al opinar sobre servicios como los de Generated Photos, explica que si bien es difícil asegurar que esto solo solucionará el problema de la falta de diversidad a la hora de entrenar algoritmos de reconocimiento facial, piensa “que puede mitigar el problema significativamente”.

Sin embargo, el investigador y candidato a doctor en machine learning para biomedicina, Martín Palazzo, no es tan optimista. “Si bien es verdad que se usan los modelos generativos para data augmentation —es decir, balancear y agrandar los set de datos— es muy delicado saber cuándo usarlos y cuándo no. Hacer data augmentation te puede ayudar a balancear tu set de datos aunque no puedas controlar el sesgo que tiene intrínsecamente el algoritmo”, explica. Pero eso no significa que no haya proyectos que valgan la pena. El problema es que todavía están en desarrollo: “El sesgo en los modelos de inteligencia artificial puede mejorar muchísimo y ya existen muchas líneas de investigación y gente trabajando en estos temas. De todos modos, esto está en etapas de investigación y poner estos sistemas y modelos en etapa de producción implica un riesgo”, agrega Palazzo.

En realidad, los sesgos discriminatorios presentes en la tecnología son un reflejo de la falta de diversidad en el mundo real y, particularmente, entre los equipos de desarrollo. Una investigación del AI Now Institute reveló que la industria del machine learning está enfrentando un “desastre de diversidad” en sus equipos. El motivo es simple: las tecnologías son desarrolladas mayormente por hombres blancos. Y si bien podemos encontrar algunas soluciones que intenten mitigar el problema, como es el caso del proyecto Generated Photos, para poder resolver este tipo de inconvenientes de raíz hay que tener equipos diversos que piensen en los usuarios en su conjunto y de la manera más inclusiva posible.

Para Martín Palazzo, investigador experto
Para Martín Palazzo, investigador experto en machine learning, “el sesgo en los modelos de inteligencia artificial puede mejorar muchísimo, pero todavía estamos en etapas de investigación”. (Imagen: gentileza)

En un reciente artículo sobre este tema, Catherine Muñoz, abogada experta en regulación de sistemas de inteligencia artificial, señaló: “La inteligencia artificial, bajo una aparente objetividad, está situada en un contexto donde ha existido históricamente una brecha entre hombres y mujeres, además de la exclusión de grupos minoritarios. Por eso se diseña y desarrolla desde una perspectiva particular, de hombres blancos de élite, dado que son los que ocupan las posiciones más altas y decisivas dentro del campo de desarrollos tecnológicos”.

El tema es tratado en el documental Sesgo Codificado, disponible en Netflix, cuyo punto de partida es la experiencia de la científica informática, Joy Buolamwini. Ella descubrió que su cara no era reconocida por un sistema de reconocimiento facial mientras desarrollaba aplicaciones en un laboratorio del Departamento de Ciencia de la Computación de su universidad. Buolamwini descubrió que los datos (caras) con los que habían entrenado a aquel tipo de sistemas eran principalmente de hombres blancos. Esto explicaba por qué el sistema no reconocía su cara afroamericana.

___

Esta nota forma parte de la plataforma Soluciones para América Latina, una alianza entre INFOBAE y RED/ACCIÓN

Guardar

Últimas Noticias

Una radio comunitaria nacida en Vicente López les da voz a jóvenes y adultos con discapacidad

Creada en 2015 por la Asociación de Padres de Adentro para el Mundo, sostiene una grilla que incluye programas en vivo y en su sede se hacen talleres para aprender a hacer radio. Se escucha online, tiene su estudio en la casa de una voluntaria y se sostiene de manera autogestiva y con aportes privados. Además de ofrecer una imagen positiva y realista del colectivo de la discapacidad, Radio Capa es el lugar en donde varias personas descubrieron su vocación y encontraron el espacio para explorar los temas que les interesan, como el arte o la poesía
Una radio comunitaria nacida en

Ciudades 8-80: cómo pensar espacios públicos para todas las edades

En Dallas, una autopista que dividía el suburbio del centro se transformó en un oasis verde con actividades y espacios para toda la población. En las afueras de Lima, un parque abandonado fue reformado por los vecinos y vecinas después de haber escuchado los deseos de niñas y niños del barrio de Villa Clorinda. Estas experiencias figuran en dos guías con recomendaciones para hacer ciudades más amigables para las infancias y los adultos mayores, es decir, que estén bien tanto para una persona de 8 como para una de 80 años
Ciudades 8-80: cómo pensar espacios

Una cooperativa capacita a empleados bancarios para que atiendan en Lengua de Señas Argentina a personas sordas

En Buenas Manos dicta un curso enfocado específicamente en trámites que se realizan en los bancos. Empleados reconocen su utilidad y cómo el curso los ayudó a tener más empatía con la población sorda. No solo se enseña esta lengua, sino también conceptos de inclusión y las mejores formas de atender a quienes tienen discapacidad auditiva
Una cooperativa capacita a empleados

En Rosario se inauguró el primer mural en braille y planean una “plaza sensorial”

Está en la fachada del Centro de Rehabilitación Luis Braille y tiene la frase “¿Diferentes? ¡Todos!”. Fue realizado con gemas, que “simbolizan el valor de la lectoescritura”, explica la directora Mariel Massari. La institución proyecta junto a la Facultad de Arquitectura de la Universidad Nacional de Rosario un espacio público que incluirá sonidos y aromas
En Rosario se inauguró el

En Luján, una escuela gratuita de oficios textiles ofrece formación de calidad y promueve la economía circular

Con la premisa de “sumar trabajo para restar pobreza”, en un año y medio De La Nada Asociación Civil hizo cuatro capacitaciones dictadas por profesionales en diseño y tecnología textil para 59 mujeres de General Rodríguez y Luján. Esta organización promueve un trabajo articulado al que ya se sumaron 21 empresas, ONG e instituciones educativas. Sus primeras trece egresadas ya confeccionaron 5.200 productos con descartes textiles y generaron ingresos propios y para sostener la escuela
En Luján, una escuela gratuita
MÁS NOTICIAS