Por primera vez la inteligencia artificial piloteó un dron militar

El avión no tripulado Kratos XQ-58A Valkyrie, aún en fase experimental, llevó a cabo un vuelo de prueba de tres horas

Guardar
El dron de combate Kratos XQ-58A Valkyrie fotografiado durante el segundo vuelo de prueba el 11 de junio de 2019 (Segundo teniente Randolph Abaya, 586 Escuadrón de pruebas de vuelo)
El dron de combate Kratos XQ-58A Valkyrie fotografiado durante el segundo vuelo de prueba el 11 de junio de 2019 (Segundo teniente Randolph Abaya, 586 Escuadrón de pruebas de vuelo)

El Laboratorio de Investigación de la Fuerza Aérea de los EE. UU. (AFRL, por sus siglas en inglés) realizó la primera prueba de vuelo exitosa de un dron militar controlado por inteligencia artificial.

Se trata del avión de combate no tripulado XQ-58A Valkyrie, fabricado por Kratos Defence & Security Solutions para actuar como un “compañero leal” capaz de distraer las defensas aéreas enemigas, realizar ataques o tareas de exploración.

El vuelo fue realizado el 25 de julio de 2023, en el Complejo de Pruebas y Entrenamiento de la base Eglin, localizada en el estado de la Florida; y durante tres horas este dron furtivo fue piloteado por sistemas de aprendizaje automático resultado de más de dos años de investigación y desarrollo del programa, Skyborg Vanguard.

Durante la prueba el avión no tripulado demostró la capacidad de procesar la información necesaria para completar la misión y según el Coronel, Tucker Hamilton, jefe de pruebas y operaciones de IA de la Fuerza Aérea estadounidense, esta “misión puso a prueba un marco de seguridad en una aeronave no tripulada volada con IA/ML (Inteligencia Artificial / Machine Learning) y demostró que un agente de IA/ML resolvió un “problema de desafío” tácticamente relevante durante operaciones aéreas”.

El dron XQ-58A Valkyrie es lanzado durante 2020 en el centro de pruebas Yuma Proving Ground, Arizona, para demostrar la transferencia de datos entre aeronaves. (Fuerza Aérea de EE. UU.)
El dron XQ-58A Valkyrie es lanzado durante 2020 en el centro de pruebas Yuma Proving Ground, Arizona, para demostrar la transferencia de datos entre aeronaves. (Fuerza Aérea de EE. UU.)

Hamilton, comandante del 96º Grupo de Operaciones, aseguro que este logro “permite oficialmente la capacidad de desarrollar agentes IA/ML que ejecutarán habilidades modernas aire-aire y aire-superficie que son inmediatamente transferibles al programa CCA (avión de combate colaborativo)”.

Mientras Scott Cain, comandante del AFRL, afirmó que “la IA será un elemento crítico para la guerra futura y la velocidad en la que tendremos que comprender el panorama operativo y tomar decisiones”, advirtiendo que se hace necesario que “de los esfuerzos coordinados de nuestros socios gubernamentales, académicos y de la industria para mantener el ritmo”.

El XQ-58A Valkyrie en exhibición pública en el Museo Nacional de la Fuerza Aérea de EE. UU. (Fuerza Aérea de EE. UU.)
El XQ-58A Valkyrie en exhibición pública en el Museo Nacional de la Fuerza Aérea de EE. UU. (Fuerza Aérea de EE. UU.)

El primer vuelo de un avión no tripulado controlado por inteligencia artificial representa un avance muy importante en las capacidades de estos sistemas aéreos y allana el camino para más innovaciones y aplicaciones que buscan revolucionar la aviación militar.

Nueva inteligencia artificial militar que marca blancos por su cuenta

El objetivo de Washington es que los drones militares puedan incorporar pronto un nuevo sistema de inteligencia artificial desarrollado por Athena AI el cual sería “mejor que los humanos identificando objetivos” debido a su capacidad de distinguir entre uniformes, armas e incluso, de interpretar señales de rendición en los enemigos con más precisión que un operador.

Esto en un momento en el debate sobre las implicaciones éticas de la tecnología autónoma en armas de guerra sigue creciendo en los Estados Unidos, y de poco han servido los llamados de Athena AI, que asegura que su sistema cumple con las normas humanitarias del Convenio de Ginebra. De hecho aún no se conocen los resultados de las pruebas ni los riesgos de su uso.

Incluso, expertos como Stuart Russell, profesor de Ciencias de la Computación en la Universidad de California, han expresado su seria preocupación ante la falta de transparencia y advierte que los sistemas de reconocimiento de IA también pueden ser engañados.

Guardar