Se conocen como robots asesinos a las armas autónomas diseñadas para realizar ataques a humanos o territorios ocupados por humanos. Pueden ser drones, tanques, aviones u otros dispositivos que, potenciados por inteligencia artificial, sean capaces de matar sin que haya intervención humana en este proceso.
¿Cuál es la implicancia del uso de estas máquinas para matar? ¿Qué podría ocurrir si se siguen desarrollando estas herramientas letales? Este miércoles 26 de febrero se llevó a cabo una conferencia de prensa, en el Centro Cultural de la Ciencia, en Buenos Aires, organizada por La Campaña para Detener a los Robots Asesinos (Campaign to Stop Killer Robots), donde se abordaron estas temáticas.
La Campaña para Detener a los Robots Asesinos, que se formó en 2012, es una alianza de organizaciones no gubernamentales (ONG) que trabaja para prohibir las armas completamente autónomas y mantener un control humano sobre el uso de la fuerza. Está conformada por 140 organizaciones no gubernamentales en 61 países, que trabaja para prohibir preventivamente el uso de armas autónomas.
En la conferencia hubo un panel integrado por Jody Williams (Premio Nobel de la Paz de 1997), Laura Nolan (ingeniera de software), Sylvie Ndongmo (representante por África de la Liga Internacional de Mujeres por la Paz y la Libertad - WILPF-), Vanina Martínez (investigadora en el Instituto UBA-CONICET de Ciencias de la Computación) y María Pía Devoto (Coordinadora de la Red de Seguridad Humana en Latinoamérica y el Caribe, SEHLAC).
“La cuestión fundamental es preguntarse por qué los seres humanos creen que está bien darle a una máquina la decisión de matar a un ser humano”,reflexionó Williams. Y añadió: “Están diciendo que los sistemas automatizadas son parte de la tercera revolución en la guerra. ¿Queremos vivir con la amenaza de robots asesinos?”.
Williams hizo hincapié en el hecho de que crear máquinas inteligentes capaces de matar está moralmente mal. Por otra parte subrayó que aquellos países que lideran el mundo y pueden accedera estas armas letales autónomas podrían verse beneficiados por esto pero que la situación podría ser muy diferente para aquellos países que están del otro lado de la batalla, los eventuales enemigos. Esto propiciaría mayor desigualdad de condiciones.
Más allá de la cuestión moral está el aspecto técnico. Según explicó la ingeniera Laura Nolan las armas autónomas no son fiables. El software es desarrollado por medio de modelos de aprendizaje automático pero los modelos hoy en día no son capaces de entrenar a las máquinas para que entiendan contextos tan cambiantes como pueden darse en distintos entornos bélicos, ni para tener una idea cabal de situaciones que requieren la aplicación de conceptos éticos y morales.
“Se le puede, por ejemplo enseñar a la máquina que ataque a cualquier persona que se encuentra excavando en la zona porque esa persona puede estar excavando para poner dispositivos explosivos, ¿pero qué pasa si está excavando para instalar un sistema de riego? La máquina no notaría esa diferencia y podría disparar?”, ejemplificó.
Estas problemáticas también podrían ocurrir si una máquina que fue entrenada y puesta a prueba en un contexto se emplea en otra situación. Así como hoy en día los sistemas de aprendizaje automático funcionan bien en contextos que no muestran grandes variaciones (a nivel de la estructura), como puede ser el lenguaje o identificación de imágenes, la situación es muy diferente si se contemplan las variantes que pueden ocurrir en contextos bélicos.
“El software se basa en un modelo de categorización, le falta razonamiento, entender contexto, tomar reglas abstractas y aplicarlas a una situación en concreto”, profundizó al ser consultada por Infobae sobre este tema.
“Un error habitual es pensar que el sistema de aprendizaje automático continúa aprendiendo pero eso no ocurre. El modelo no cambia. Una vez que se diseño y cerró, no cambia”, añadió Martínez.
Los sistemas de aprendizaje automático están regidos por algoritmos, fórmulas matemáticas que se nutren de datos que les proporciona la persona que los diseñó y esos datos pueden ser fotos, videos, por ejemplo. Y en función de eso, las máquinas aprenden a identificar patrones.
También, a partir de esos aprendizajes, algunos sistemas son capaces de crear fotos o videos nuevos, como ocurre con la tecnología detrás de lo deep fakes, por ejemplo. Pero las máquinas están muy lejos de ser capaces de identificar sutilezas, comprender contexto o tener una idea cabal de cuestiones morales que intervienen o deberían intervenir a la hora de realizar un ataque.
“El dinero debe desplazarse de la guerra hacia la paz. Por eso es importante prohibir estos robots asesinos que representan una amenaza para África, Latinoamérica y el mundo en general, analizó Ndongmo.
También analizó la dimensión de género en este sentido.”La armamentización tecnológica, la militarización tienen un impacto directo en las mujeres y niñas porque son herramientas para perpetuar la violencia”, subrayó Ndongmo .
En este sentido dijo que en todas las guerras, las mujeres, niñas y otros grupos minoritarios o considerados débiles son siempre los más afectados con lo cual, el avance de las armas y los conflictos bélicos siempre tiene un impacto mayor en esos grupos.
Williams, por su parte, cerró la conferencia instando a la Argentina y otros países de la región a tomar un papel de liderazgo en la lucha en contra de las armas autónomas. “Se podría hacer una zona libre de robots”, dijo. Y remarcó que se podría ser un primer paso para lograr tratados de alcance internacional.
En el plano internacional, unos 30 estados ya solicitaron la prohibición de este tipo de armas, 80 países expresaron su preocupación y miles de expertos en robótica e inteligencia artificial se comprometieron a no trabajar en el diseño y desarrollo de este tipo de dispositivos.
MÁS SOBRE ESTE TEMA: