Crearon un juego para mostrar cómo las cámaras web “leen” las emociones de los seres humanos

Un sitio desafía a producir seis emociones (felicidad, tristeza, miedo, sorpresa, disgusto e ira) para que la inteligencia artificial las identifique. Su creadora quiere demostrar que es falso que los movimientos faciales están directamente ligados a cambios en los sentimientos

Guardar
El juego web emojify.info (disponible en inglés) tiene como objetivo mostrar cómo una computadora puede “leer” las emociones humanas a través de la cámara y demostrar que nuestras emociones no se relacionan con gestos faciales
El juego web emojify.info (disponible en inglés) tiene como objetivo mostrar cómo una computadora puede “leer” las emociones humanas a través de la cámara y demostrar que nuestras emociones no se relacionan con gestos faciales

¿El reconocimiento de emociones de la inteligencia artificial (IA) de las máquinas funciona realmente bien? Una pregunta de este estilo se hizo un equipo de investigadores de la Universidad de Cambridge, en Reino Unido. Partieron desde una premisa: las empresas de tecnología no solo quieren identificar a las personas mediante el reconocimiento facial, también intentan leer sus emociones con la ayuda de la IA.

Para muchos científicos, sin embargo, las afirmaciones sobre la capacidad de las computadoras para comprender las emociones son defectuosas. Así fue que la investigadora Alexa Hagerty del Centro Leverhulme para el Futuro de la Inteligencia de la Universidad de Cambridge y el Centro para el Estudio del Riesgo Existencial (CSER), ideó un juego web para navegadores que intenta dejar en evidencia a la IA.

El sitio emojify.info (disponible en inglés) tiene como objetivo mostrar cómo una computadora puede “leer” las emociones humanas a través de la cámara web. El juego desafía a producir seis emociones diferentes (felicidad, tristeza, miedo, sorpresa, disgusto e ira), para que la IA intente identificar.

emojify.info desafía a producir seis emociones: felicidad, tristeza, miedo, sorpresa, disgusto e ira, para que la IA intente identificar (Infobae)
emojify.info desafía a producir seis emociones: felicidad, tristeza, miedo, sorpresa, disgusto e ira, para que la IA intente identificar (Infobae)

Sin embargo (spoiler alert), las personas encontrarán que las lecturas del software no son precisas, hasta llega a catalogar expresiones de euforia como “neutrales”. Hagerty quiere demostrar que es falso que los movimientos faciales estén directamente ligados a cambios en los sentimientos.

”La premisa de estas tecnologías es que nuestros rostros y sentimientos internos están correlacionados de una manera muy predecible”, dijo la investigadora al sitio The Verge. Entonces, si una persona sonríe, ¿está feliz? Si frunce el ceño, ¿está enojada? “La APS (Association for Psychological Science) hizo una gran revisión de la evidencia en 2019 y encontró que el espacio emocional de las personas no se puede inferir fácilmente de sus movimientos faciales “.

En el juego se puede mover la cara y gesticular rápidamente para intentar expresar seis emociones diferentes. “Pero el punto es que no sentiste internamente seis cosas diferentes, una tras otra en una fila”, señala la investigadora.

Otro minijuego del sitio pide a los usuarios que identifiquen la diferencia entre un guiño y un parpadeo, algo que las computadoras no pueden hacer. “Puedes cerrar los ojos y puede ser una acción involuntaria o un gesto significativo”, dice Hagerty.

La tecnología de reconocimiento de emociones está creciendo de forma acelerada y se usan estos sistemas para examinar a personas candidatas a un puesto de trabajo, por ejemplo, o detectar posibles terroristas en un aeropuerto. Asimismo, al igual que con los sistemas de reconocimiento facial, la IA de detección de emociones suele tener sesgos raciales o incluso, de género. “Los peligros son múltiples”, advierte Hagerty.

Meses atrás, el Comité consultivo del Convenio de Protección de Datos del Consejo de Europa recomendó que se prohíban “algunos usos de tecnologías de reconocimiento facial” para “evitar cualquier riesgo de discriminación”, en el marco del Día Internacional de Protección de Datos, el 28 de enero.

El comité publicó directrices en las se pronunció en contra de usar esas tecnologías para determinar el color de piel, la religión, el sexo, la raza, el origen étnico o informaciones sobre el estado de salud. Asimismo, señaló: “No se debe permitir que las empresas privadas utilicen el reconocimiento facial en entornos no controlados, como los centros comerciales”, con fines de mercadotecnia o seguridad privada.

Según el Comité, su uso sólo debería permitirse “en entornos controlados con fines de autentificación o categorización”, como el acceso a un concierto con entradas VIP.

SEGUIR LEYENDO:

Guardar