Desde 2015 Google, Microsoft y Baidu cuentan con inteligencia artificial (IA) para suplantar a los seres humanos en la identificación de imágenes; dos años más tarde Facebook desarrolló una tecnología de reconocimiento facial. Sin embargo, las máquinas que tienen la capacidad de aprender tienen también una vulnerabilidad: son susceptibles al engaño.
Para demostrarlo, un grupo de investigadores del Laboratorio de Informática e Inteligencia Artificial del Instituto de Tecnología de Massachusetts (MIT) hizo una prueba. Y consiguió que Google confundiera rifles con un helicóptero.
Los ejemplos adversativos, o antagónicos, son un conjunto de datos que se modifican ligeramente para comprobar si la IA los clasifica mal. "Considerémoslos alucinaciones para algoritmos", ilustró Wired su nota sobre el experimento del MIT. Eso tiene importancia, por ejemplo, para evitar que un auto sin conductor confunda un cartel de alto con uno de velocidad máxima, por ejemplo. También se utilizan para fortalecer los filtros anti-spam.
El caso de la máquina que confunde un panda con un mono gibón —y está segura: le da un 99,3% de confianza a su reconocimiento— era el más conocido hasta ahora. La prueba del MIT reveló además que los ejemplos adversativos son más fáciles de crear que antes.
A diferencia de los ensayos de los desarrolladores, el del MIT no partió del conocimiento previo del algoritmo sino que operó a ciegas, como lo haría un hacker en la vida real. Apuntaron a afectar la parte del sistema Vision API, de Google Cloud, que se ocupa de dar nombres a los objetos que se presentan en las imágenes.
Los investigadores hicieron que Vision API confundiera una hilera de rifles con un helicóptero meramente al cambiar algunos pixeles de la foto. "Para el ojo humano las dos imágenes parecen idénticas. La diferencia indiscernible sólo engaña a la máquina", explicó la revista.
Lo comprobaron varias veces y también con otros ejemplos: cada vez que trataban de engañar a la IA, analizaban sus resultados y retocaban muy poco la imagen para que convenciera a la computadora de que una cosa en realidad era otra.
"Este reciente trabajo de MIT demuestra que los atacantes podrían potencialmente crear ejemplos adversativos para confundir a los sistemas comerciales de IA", observó Wired. "En general se considera que Google tiene uno de los mejores equipos de seguridad del mundo, pero uno de sus productos más futuristas puede sufrir alucinaciones".
Las implicancias son serias: estos ataques se podrían usar —se destacó como ejemplos—para que en un aeropuerto el scanner de equipaje deje subir una bomba a un avión al confundirla con un peluche, o para que un sistema de reconocimiento facial identifique a la persona equivocada como autora de un delito.
Todos los desarrolladores de IA investigan este peligro, no sólo por las razones prácticas evidentes sino porque, en realidad, no se comprende qué causa esta vulnerabilidad. Google incluso hizo un concurso de ejemplos adversativos.
"En esencia, los investigadores han creado sistemas de IA que piensan de manera diferente a la de los humanos, y nadie está seguro de cómo funcionan", concluyó Wired.
LEA MÁS: