Científicos del MIT engañaron a la inteligencia artificial de Google: confundió un rifle con un helicóptero

Los expertos desnudaron la gran vulnerabilidad de las máquinas inteligentes para reconocer imágenes. Tiene importancia para el desarrollo de los autos sin conductor, la seguridad aeroportuaria y el comercio

Guardar
El MIT hizo que el identificador de imágenes con inteligencia artificial confundiera un rifle con un helicóptero. (MIT)
El MIT hizo que el identificador de imágenes con inteligencia artificial confundiera un rifle con un helicóptero. (MIT)

Desde 2015 Google, Microsoft y Baidu cuentan con inteligencia artificial (IA) para suplantar a los seres humanos en la identificación de imágenes; dos años más tarde Facebook desarrolló una tecnología de reconocimiento facial. Sin embargo, las máquinas que tienen la capacidad de aprender tienen también una vulnerabilidad: son susceptibles al engaño.

Para demostrarlo, un grupo de investigadores del Laboratorio de Informática e Inteligencia Artificial del Instituto de Tecnología de Massachusetts (MIT) hizo una prueba. Y consiguió que Google confundiera rifles con un helicóptero.

Los ejemplos adversativos, o antagónicos, son un conjunto de datos que se modifican ligeramente para comprobar si la IA los clasifica mal. "Considerémoslos alucinaciones para algoritmos", ilustró Wired su nota sobre el experimento del MIT. Eso tiene importancia, por ejemplo, para evitar que un auto sin conductor confunda un cartel de alto con uno de velocidad máxima, por ejemplo. También se utilizan para fortalecer los filtros anti-spam.

Aunque para el ojo humano no hay diferencia, para la inteligencia artificial una imagen muestra a un panda y la otra a un gibón.
Aunque para el ojo humano no hay diferencia, para la inteligencia artificial una imagen muestra a un panda y la otra a un gibón.

El caso de la máquina que confunde un panda con un mono gibón —y está segura: le da un 99,3% de confianza a su reconocimiento— era el más conocido hasta ahora. La prueba del MIT reveló además que los ejemplos adversativos son más fáciles de crear que antes.

A diferencia de los ensayos de los desarrolladores, el del MIT no partió del conocimiento previo del algoritmo sino que operó a ciegas, como lo haría un hacker en la vida real. Apuntaron a afectar la parte del sistema Vision API, de Google Cloud, que se ocupa de dar nombres a los objetos que se presentan en las imágenes.

Los investigadores hicieron que Vision API confundiera una hilera de rifles con un helicóptero meramente al cambiar algunos pixeles de la foto. "Para el ojo humano las dos imágenes parecen idénticas. La diferencia indiscernible sólo engaña a la máquina", explicó la revista.

Lo comprobaron varias veces y también con otros ejemplos: cada vez que trataban de engañar a la IA, analizaban sus resultados y retocaban muy poco la imagen para que convenciera a la computadora de que una cosa en realidad era otra.

Así el sistema del MIT ataca el algoritmo de Google: “Comenzamos con una foto de la clasificación elegida. Entonces cambiamos la foto pixel a pixel para que parezcan los esquiadores, mientras mantenemos la calificación de “perro”. (MIT)
Así el sistema del MIT ataca el algoritmo de Google: “Comenzamos con una foto de la clasificación elegida. Entonces cambiamos la foto pixel a pixel para que parezcan los esquiadores, mientras mantenemos la calificación de “perro”. (MIT)

"Este reciente trabajo de MIT demuestra que los atacantes podrían potencialmente crear ejemplos adversativos para confundir a los sistemas comerciales de IA", observó Wired. "En general se considera que Google tiene uno de los mejores equipos de seguridad del mundo, pero uno de sus productos más futuristas puede sufrir alucinaciones".

Las implicancias son serias: estos ataques se podrían usar —se destacó como ejemplos—para que en un aeropuerto el scanner de equipaje deje subir una bomba a un avión al confundirla con un peluche, o para que un sistema de reconocimiento facial identifique a la persona equivocada como autora de un delito.

La versión original, donde las armas son reconocidas como tales. (MIT)
La versión original, donde las armas son reconocidas como tales. (MIT)

Todos los desarrolladores de IA investigan este peligro, no sólo por las razones prácticas evidentes sino porque, en realidad, no se comprende qué causa esta vulnerabilidad. Google incluso hizo un concurso de ejemplos adversativos.

"En esencia, los investigadores han creado sistemas de IA que piensan de manera diferente a la de los humanos, y nadie está seguro de cómo funcionan", concluyó Wired.

LEA MÁS:

 
Guardar