Error de identificación

El uso de la Inteligencia Artificial aplicada a las armas autónomas, con márgenes de error en torno al 10%, implica un riesgo, ya que busca y ataca objetivos sin control humano y sin posibilidad de corrección

Guardar
El vehículo en el que viajaban los trabajadores de World Central Kitchen (Foto: AP/Abdel Kareem Hana)
El vehículo en el que viajaban los trabajadores de World Central Kitchen (Foto: AP/Abdel Kareem Hana)

Un error de identificación, según los expertos y las autoridades responsables, explica la muerte de siete cooperantes de la ONG humanitaria World Central Kitchen el 1° de abril en Gaza, cuyo convoy de ayuda alimentaria fue atacado por drones guiados por Inteligencia Artificial.

Este hecho, pone dramáticamente en evidencia lo que ya se sabe de los riesgos del uso de la Inteligencia Artificial aplicada a las armas autónomas, que operan y “deciden” sus ataques fuera del control humano.

La cadena France24 señala que la mayoría de los errores de selección de objetivos se deben a la entrega de la “decisión” a la Inteligencia Artificial, una herramienta que no es ni inteligente ni artificial. Hay sistemas programados para objetivos de infraestructura y otros para selección de personas, están en aplicación desde hace tiempo y tienen márgenes de error en torno al 10%. Lamentablemente, los siete cooperantes muertos en Gaza cayeron dentro de este margen.

Este no es un tema de un país u otro en concreto, y desde luego, pensando de buena fe, no se puede creer que el ataque a los cooperantes humanitarios haya sido humanamente intencionado. Lo que pasa es que, si se decide utilizar un arma autónoma, hay que asumir que esta busca y ataca objetivos sin control humano, basada solamente en la programación que tiene incorporada, sin posibilidad por lo tanto de corrección una vez desplegada. Mayor peligro aún reviste cuando se trata de armamento nuclear autónomo. Lamentablemente, varios países siguen invirtiendo actualmente en su desarrollo.

Se hace cada vez más urgente la necesidad de una regulación internacional de la Inteligencia Artificial -como promueven el Secretario General de la ONU y muchos centros de estudios independientes, universidades y expertos- que sea vinculante, tanto en su desarrollo como en sus aplicaciones, para evitar consecuencias nefastas en este y otros campos. Hace unas semanas, en la Asamblea General de la ONU, se dio un paso importante al aprobar la primera Resolución global sobre IA, pero no es suficiente, porque, lamentablemente, al igual que las normativas que hasta ahora se están aprobando o estudiando a nivel multilateral, por ejemplo la de la Unión Europea, o de los estados, como la de China, no contemplan una regulación vinculante del uso militar de esta tecnología, tal vez la parte más peligrosa de su aplicación.

Espero que este terrible “error de identificación” sirva para concienciar a la comunidad internacional y a nuestra propia sociedad sobre este mayor riesgo y se avance decididamente en darle un marco a esta herramienta tecnológica que prevenga su uso indiscriminado, y sus efectos sean positivos para el progreso de la humanidad. No transformemos el enorme potencial benéfico de la Inteligencia Artificial en la bomba atómica del siglo XXI.

Guardar