Los sistemas de reconocimiento facial pueden producir resultados extremadamente inexactos, especialmente para los no blancos, según un estudio del gobierno de Estados Unidos publicado el jueves que probablemente genere nuevas dudas sobre el despliegue de la tecnología de inteligencia artificial.
El estudio de decenas de algoritmos de reconocimiento facial mostró tasas de "falsos positivos" para asiáticos y afroestadounidenses hasta 100 veces más altas que para los blancos.
Los investigadores del Instituto Nacional de Estándares y Tecnología (NIST), un centro de investigación del gobierno, también encontraron que dos algoritmos asignaron el género incorrecto a las mujeres negras casi el 35% de las veces.
El estudio se produce en medio del despliegue generalizado de reconocimiento facial en aeropuertos, seguridad fronteriza, banca, comercio minorista, escuelas y tecnología personal, así como para desbloquear teléfonos inteligentes.
Algunos activistas e investigadores han afirmado que el potencial de errores es demasiado grande, que éstos podrían resultar en el encarcelamiento de personas inocentes, y que la tecnología podría usarse para crear bases de datos que pueden ser pirateadas o utilizadas de manera inapropiada.
El estudio del NIST encontró tanto "falsos positivos", por los que un individuo es identificado erróneamente, como "falsos negativos", en los que el algoritmo no logra hacer coincidir con precisión una cara con una persona específica en una base de datos.
"Un falso negativo podría ser simplemente un inconveniente. La persona no puede acceder a su teléfono, por ejemplo, pero el problema generalmente se puede remediar con un segundo intento", dijo el investigador principal Patrick Grother.
"Pero un falso positivo justifica un mayor escrutinio", señaló.
El estudio encontró que los sistemas de reconocimiento facial desarrollados en Estados Unidos presentan tasas de error más altas para los asiáticos, los negros y los nativos estadounidenses.
El grupo demográfico de los indios estadounidenses mostró las tasas más altas de falsos positivos.
Sin embargo, algunos algoritmos desarrollados en países asiáticos produjeron tasas de precisión similares para la coincidencia entre caras asiáticas y caucásicas, lo que según los investigadores sugiere que estas disparidades pueden corregirse.
No obstante, Jay Stanley, de la Unión Estadounidense de Libertades Civiles, dijo que el nuevo estudio muestra que la tecnología no está lista para un despliegue amplio.
"Incluso los científicos del gobierno ahora están confirmando que esta tecnología de vigilancia es defectuosa y parcial", señaló Stanley en un comunicado.
"Una coincidencia falsa puede conducir a que una persona pierda su vuelo, sea sometida a largos interrogatorios, colocada en listas de vigilancia, sea detenida por motivos erróneos o algo peor".
rl/wd/dg/yow