Inteligencia Artificial y Defensa: los desafíos éticos planteados por los robots asesinos

¿Quién controla a las armas autónomas? ¿Qué tan vulnerables son al hackeo? Una vez desatada esta independencia para tomar la decisión de matar, ¿puede desactivarse? Estas son algunas preguntas planteadas en un reciente seminario en la ciudad de Buenos Aires

Guardar
Cuatro sistemas de armas autónomas
Cuatro sistemas de armas autónomas actualmente en funcionamiento o desarrollo (en sentido horario): el vehículo israelí de patrullaje Guardium, el buque estadounidense Sea Hunter, la torreta surcoreana Super Aegis II y el drone anti radares Harpy

Aunque parezca salido de un cuento de Ciencia Ficción, la Inteligencia Artificial (IA) y ciertas capacidades autonómicas ya están siendo utilizadas en los sistemas de armas aplicados a la Defensa en la actualidad, como por ejemplo en el procesamiento de datos, reconocimiento de blancos y ciberseguridad, aunque aún se trata una tecnología muy básica.

Lo que es espera en el futuro próximo, en cambio, promete ser ser disruptivo y generar una multitud de problemas éticos: armas que se manejen por sí mismas, con escaso o nulo control humano y vulnerables a ciberataques; armas que operen masivamente e interconectadas, con capacidad de reconocimiento facial; armas que tomen por sí solas la decisión de matar, y estén encargadas de distinguir entre combatientes, no combatientes y civiles, si es que esa distinción sigue vigente.

Este ha sido el objeto del seminario "Inteligencia Artificial y Ética: el desafío de las armas autónomas letales", organizado el miércoles por la Red de Seguridad Humana para América Latina y el Caribe (SEHLAC) y el Centro de Estudios en Política Internacional de la Facultad de Ciencias Sociales de la UBA, que convocó a diferentes expertos de las ciencias de la computación, al Defensa y el Derecho Internacional para debatir sobre la implementación de estas armas.

Un MQ-9 Reaper de la
Un MQ-9 Reaper de la Fuerza Aérea de Estados Unidos disparando un misil Hellfire. Los drones, que ya se han convertido en la norma, adelantan el uso de la IA en Defensa

El encuentro se en enmarca en la campaña Stop Killer Robots (Detengan a los robots asesinos), fundada en 2012 y en la que han participado Stephen Hawking, Elon Musk, Steve Wozniak y Noam Chomsky, entre otros, con el objetivo de lograr el consenso para prohibir las armas autónomas y mantener el control humano sobre el uso de la fuerza, en un intento por adelantarse al surgimiento de estas armas disruptivas como no se logró con otras que llegaron a ser prohibidas o fuertemente limitadas sólo después de que cientos de miles de personas murieran: las armas nucleares, las armas químicas y las minas antipersonal, por citar sólo tres ejemplos.

Camilo Serna, especialista en defensa de los Derechos Humanos, es precisamente sub Director Nacional de la Campaña Colombiana contra Minas, parte de la iniciativa global que logró la prohibición de estas armas en 1997, planteó un fuerte interrogante con respecto a la vulnerabilidad de estos sistemas de armas.

"Tenemos el problema de Huawei hoy, por eso hay que preguntarse, ¿quién hace estas armas, China, Rusia, Estados Unidos?", señaló, en referencia al escándalo en torno al gigante de las telecomunicaciones chino al que Estados Unidos está intentando expulsar de su mercado por temor a la amenaza de espionaje que acompaña al uso de sus productos. "Estas armas son aparentemente perfectas, pero vulnerables", resumió.

María Pía Devoto, directora de
María Pía Devoto, directora de SEHLAC, junto a Ángel Dalmazzo y Camilo Serna

Además, el especialista destacó que es imposible saber cómo reaccionarán estas tecnologías cuando sean autónomas: "Hay muchos escenarios imprevisibles. Como con toda arma nueva, como ocurrió con las minas unipersonales, miles debieron morir antes de que fueran prohibidas".

"Cuando tengamos los sistemas de Inteligencia Artificial funcionando, no sabemos si los podremos apagar, como sucede con el desminado", agregó.

"No existe un sistema informático que no se pueda hackear", señaló, en sintonía, Guillermo Simari, Doctor en Ciencias de la Computación por la Washington University de Saint Louis, Estados Unidos, e investigador en IA en la Universidad Nacional del Sur, en Argentina. "Además, la capacidad de cometer errores de parte de un sistema informático es proporcional a su complejidad", agregó.

(Slaughterbots, representación ficcional del uso de robots asesinos publicado por el Future of Life Institute)

Simari recordó las dos recientes tragedias de los Boeing 737 MAX, por el momento atribuidas a un sistema automatizado que falló y la dificultad de los pilotos por anularlo a tiempo.

"Hagamos los sistemas con la capacidad de ser abortados", pidió en referencia a las arma autónomas, y recordó la sorpresa generada en 2016 cuando Tay, la IA desarrollada por Microsoft para aprender a conversar leyendo tuits reales en Twitter, rápidamente y sin control se convirtió en racista, violenta y homofóbica.

Aunque advirtió que en el plano ético, los humanos no desarrollan sus armas siguiendo estas consideraciones. "Lo primordial es ganar", expresó.

Para María Vanina Martínez, Doctora en ciencias de la Computación de la Universidad de Buenos Aires e investigadora del Conicet, existen formas de utilizar la IA en Defensa de forma beneficiosa, pero hace falta un cambio de postura, especialmente en los referido a la presencia del humano en la toma de decisiones.

Alejandra Otamendi, Guillermo Simari, María
Alejandra Otamendi, Guillermo Simari, María Vanina Martínez y Romina Liz Garmendia durante el evento organizado por SEHLAC y el CEPI

De hecho, la IA es, por definición, una tecnología de uso dual para lo que todos lo días se encuentran nuevos usos civiles, desde los algoritmos utilizados por Netflix o Amazon hasta Siri, el asistente personal de Apple, pasando por videojuegos hasta llegar a los autos autónomos y todo tipo de maquinaria especializada, como el sistema quirúrgico da Vinci.

"Nuestras técnicas de IA actuales son muy básicas y proclives a errores. Generalmente venimos detrás del problema", consideró. "Pero si pudiéramos incluir consideraciones éticas en los tiempos de la máquina, eso sería mucho más rápido que un sistema para abortar", explicó.

A este enfoque se lo considera "ética por diseño". "No es una cuestión de prohibir, sino de controlar", concluyó.

Al respecto, muchos recordaron las aclamadas tres leyes de la robótica del escritor estadounidense de Ciencia Ficción Isaac Asimov: 1°- Un robot no debe nunca hacer daño a un ser humano o, por inacción, permitir que un humano resulte herido; 2°- Un robot debe obedecer las órdenes dadas por los seres humanos salvo cuando estas entren en conflicto con la ley 1°; 3°- Un robot debe proteger su propia existencia siempre y cuando esa protección no entre en conflicto con las leyes 1° y 2°.

Una de las principales amenazas
Una de las principales amenazas para las armas autónomas es su vulnerabilidad por definición al hackeo (Getty Images)

Aunque estas leyes pertenecen al terreno de la literatura y su premisa básica se opone al sentido principal de usar IA en Defensa [es decir para administrar violencia], su pronunciación y la exploración de sus conflictos constituyeron una primera aproximación al problema a partir de 1942, cuando fueron publicadas en un primer cuento, y que hoy, en medio del boom de la IA, han sido retomados en series como Black Mirror.

Simari, en cambio, consideró que esta "ética por diseño" es "posponer el problema", ya que hay que definir una ética primero.

Liza Garmendia, experta en Derechos Humanos y oficial de investigación en las Naciones Unidas, recordó que el derecho de los combatientes a elegir los medios para combatir no es ilimitado, aunque al momento no existen convenios internacionales sobre las armas autónomas.

Carina Solmirano, Juan Battaleme, Marta
Carina Solmirano, Juan Battaleme, Marta Vigevano y Esteban Ierardo

La procuradora y abogada destacó el problema de distinción entre combatientes, no combatientes, heridos y civiles, entre otras categorías, de parte de los sistemas de armas amparados en la IA.

Martínez señaló sin embargo que la distinción puede ser lograda, si las categorías como concepto pueden ser llevadas a un lenguaje que la máquina pueda entender.

Juan Battaleme, codirector del grupo sobre políticas digitales y ciberespacio en el Consejo Argentino para las Relaciones Internacionales (CARI), advirtió que los intentos de prohibir las armas autónomas encontrarán una fuerte resistencia y que la estructuras militares y sociales cambian de manera mucho más lenta que la tecnología.

El hombre detrás de la
El hombre detrás de la máquina, por ahora. Un piloto de drone operando un MQ-1 Predator en 2010 (Fuerza Aérea Estados Unidos)

"Prohibir las armas requiere pelearse con cuatro industrias: la IA, la impresión 3D, la biología digital y la conectividad. Es inevitable que estas armas proliferen", consideró, recordando que los cambios exponenciales en IA "llevan ya décadas" y que las principales potencias ya están desarrollando estos sistemas.

Pero luego matizó: "No pudimos detener las armas nucleares, pero sí el número de actores", en referencia al entramado de acuerdos internacionales y sistemas de salvaguardas y controles hoy existentes en esta área. "Pero sigue habiendo una decisión humana de que las máquinas maten", concluyó.

Ilustrativo de las dificultades que envuelven a los intentos de evitar la proliferación de estas tecnologías para la Defensa ha sido el discurso que en septiembre de 2017 ofreció el presidente ruso Vladimir Putin ante un grupo de estudiantes. "La Inteligencia Artificial es el futuro, no sólo de Rusia sino de toda la humanidad. Quien se convierta en líder en esta área se convertirá en el dueño del mundo", expresó.

MÁS SOBRE ESTE TEMA:

Guardar