Expertos critican los softwares de Inteligencia Artificial que predicen emociones

Investigadores de EEUU alertaron sobre los efectos sociales nocivos de la IA y pidieron la prohibición del análisis automatizado de las expresiones faciales

Guardar
Existe una polémica abierta por
Existe una polémica abierta por el análisis automatizado de las expresiones faciales en las contrataciones laborales y otras situaciones importantes de la vida cotidiana (Shutterstock)

Un destacado grupo de investigadores en EEUU, alarmados por los efectos sociales nocivos de la inteligencia artificial (IA) pidió esta semana la prohibición del análisis automatizado de las expresiones faciales en las contrataciones laborales y otras situaciones importantes de la vida cotidiana.

El Instituto AI Now de la Universidad de Nueva York emitió un comunicado en el que destacó que era su prioridad actuar contra tal “reconocimiento de afecto” impulsado por software porque la ciencia no justifica el uso de la tecnología y todavía hay tiempo para detener la adopción generalizada.

Los investigadores citaron como ejemplo problemático a la compañía HireVue, que vende sistemas para entrevistas de video remotas para empleadores como Hilton y Unilever. Y ofrece inteligencia artificial para analizar movimientos faciales, tono de voz y patrones de habla, pero no divulga los puntajes a los candidatos.

Demostración de la Inteligencia Artificial
Demostración de la Inteligencia Artificial en la feria Huawei Connect en Shanghai, China (Reuters)

El Centro para la Privacidad de la Información Electrónica, organización sin fines de lucro, presentó una queja sobre HireVue ante la Comisión Federal de Comercio estadounidense y AI Now ha criticado a la compañía anteriormente.

“Muchos candidatos se han beneficiado de la tecnología de HireVue para ayudar a eliminar el sesgo humano, que es tan significativo, en el proceso de contratación existente”, dijo la portavoz Kim Paone.

AI Now, en su cuarto reporte anual sobre los efectos de las herramientas de inteligencia artificial, dijo que la evaluación del trabajo es una de las muchas formas en que dicho software se usa sin responsabilidad, y que generalmente favorece a grupos privilegiados.

“La forma en que las personas comunican enojo, disgusto, miedo, felicidad, tristeza y sorpresa varía sustancialmente entre culturas, situaciones e incluso entre personas dentro de una sola situación”, escribió un equipo de la Universidad Northeastern y el Hospital General de Massachusetts.

La evaluación del trabajo es
La evaluación del trabajo es una de las muchas formas en que dicho software se usa sin responsabilida (NYT)

AI Now también criticó a Amazon, que ofrece análisis sobre expresiones de emoción a través de su software Rekognition. Amazon le dijo a Reuters que su tecnología sólo determina la apariencia física de la cara de alguien y no pretende mostrar lo que una persona realmente siente.

En una conferencia telefónica antes de la publicación del informe, los fundadores de AI Now Kate Crawford y Meredith Whittaker sostuvieron que los usos dañinos de la IA se están multiplicando a pesar del amplio consenso sobre los principios éticos porque no hay consecuencias por violarlos.

A continuación las conclusiones del informe:

-A pesar del crecimiento de los marcos éticos, los sistemas de IA continúan desplegándose rápidamente a través de dominios de considerable importancia social: en salud, educación, empleo, criminal justicia y muchos otros, sin salvaguardas apropiadas o estructuras de responsabilidad establecidas.

-Quedan muchas preocupaciones urgentes, y la agenda de temas a tratar continúa creciendo.

-Los daños ambientales causados ​​por los sistemas de IA son considerables, por la extracción de materiales de nuestra tierra.

-Los sistemas de IA son particularmente propensos a las vulnerabilidades de seguridad y la forma en que las empresas construyen estos sistemas están incitando cambios fundamentales en el paisaje de nuestras comunidades.

Fuente: Reuters

SEGUÍ LEYENDO:

Guardar