Air-Guardian es un sistema desarrollado por investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (Instituto Tecnológico de Massachusetts). Esta tecnología apoya a los pilotos durante momentos críticos, cuando tienen que procesar mucha información a la vez proveniente de múltiples monitores, pues funciona como un copiloto proactivo al combinar el trabajo humano y robótico a través de la comprensión basada en la atención.
La atención, en el caso de los seres humanos, funciona por el seguimiento ocular y el sistema neuronal, los cuales crean “mapas de prominencia”, estos indican la dirección de enfoque de la atención. Los mapas sirven como guías visuales que resaltan regiones clave dentro de una imagen, lo que ayuda a comprender y descifrar el comportamiento de algoritmos complejos, en el caso de las máquinas.
Air-Guardian detecta indicios prematuros de posibles riesgos mediante estas señales de atención. Lo que significa que actúa en cualquier momento, no sólo cuando una infacción de seguridad, como lo hacen los sistemas de piloto automático convencionales.
“Una característica interesante de nuestro método es su diferenciabilidad”, dijo el postdoctor de MIT CSAIL Lianhao Yin, autor principal de un nuevo artículo sobre Air-Guardian.
“Nuestra capa cooperativa y todo el proceso de un extremo a otro se pueden entrenar. Elegimos específicamente el modelo de red neuronal causal de profundidad continua debido a sus características dinámicas en el mapeo de la atención. Otro aspecto único es la adaptabilidad. El sistema Air-Guardian no es es rígido; se puede ajustar en función de las demandas de la situación, asegurando una asociación equilibrada entre humanos y máquinas”, explicó Yin.
La principal fortaleza de Air-Guardian radica en su tecnología básica: a través de una capa cooperativa basada en optimización que aprovecha la atención visual tanto de seres humanos como de máquinas, así como las redes neuronales líquidas de tiempo continuo (CfC) conocidas por su habilidad para analizar relaciones de causa y efecto, examina las imágenes entrantes en busca de información crucial.
Implementa el algoritmo VisualBackProp, que identifica los puntos de enfoque del sistema en una imagen, garantizando una comprensión clara de sus mapas de atención.
Durante las pruebas de campo, tanto el piloto como el sistema tomaron decisiones utilizando las mismas imágenes sin modificar mientras se dirigían hacia el punto de ruta designado.
El éxito de Air-Guardian se midió en función de las recompensas acumuladas obtenidas durante el vuelo y el camino más corto hasta el punto de ruta. El sistema redujo el nivel de riesgo de los vuelos y aumentó la tasa de éxito de la navegación hacia los puntos objetivo.
Para una futura adopción masiva, es necesario perfeccionar la interfaz hombre-máquina. Los comentarios de los investigadores que lideraron las pruebas sugieren que un indicador, como una barra, podría ser más intuitivo para indicar cuándo el sistema guardián toma el control.
“El sistema Air-Guardian resalta la sinergia entre la experiencia humana y el aprendizaje automático, promoviendo el objetivo de utilizar el aprendizaje automático para ayudar a los pilotos en escenarios desafiantes y reducir los errores operativos”, dice Daniela Rus, directora de CSAIL y autora principal del artículo.
“Uno de los resultados más interesantes del uso de una métrica de atención visual en este trabajo es la posibilidad de permitir intervenciones más tempranas y una mayor interpretabilidad por parte de los pilotos humanos”, dice Stephanie Gil, profesora asistente de ciencias de la computación en la Universidad de Harvard.
Esta investigación fue financiada parcialmente por el Laboratorio de Investigación de la Fuerza Aérea de Estados Unidos (USAF), el Acelerador de Inteligencia Artificial de la Usaf, Boeing Co. y la Oficina de Investigación Naval de dicho país.