Toby Walsh, profesor en la Universidad New South Wales en Sídney, es uno de los principales expertos australianos en materia de inteligencia artificial. Él y otros expertos han emitido un informe que detalla las promesas, y los escollos éticos, de la adopción de la inteligencia artificial en el país.
Walsh, de 55 años, ha estado trabajando con la Campaña para Detener a los Robots Asesinos (Campaign to Stop Killer Robots), una coalición de científicos y líderes de derechos humanos que busca detener el desarrollo de armas robóticas autónomas.
Hablamos brevemente en la reunión anual de la Asociación Estadounidense para el Avance de la Ciencia —en la que Walsh estaba haciendo una presentación— y, posteriormente, durante dos horas por teléfono. A continuación, presentamos la versión editada de estas conversaciones.
Eres científico e inventor. ¿Cómo te convertiste en activista de la lucha en contra de los robots asesinos?
Sucedió de manera progresiva, más o menos a partir de 2013. Había estado leyendo mucho sobre armas robóticas. Me di cuenta de que muy pocos de mis colegas en el campo de la inteligencia artificial estaban pensando en los peligros de esta nueva clase de armas. Si acaso la gente los consideraba, desestimaban a los robots asesinos como algo del futuro lejano.
Según lo que podía ver, el futuro ya estaba aquí. Los bombarderos con drones estaban sobrevolando el cielo de Afganistán. Aunque los humanos en el suelo controlaban los drones, basta una pequeña medida técnica para volverlos autónomos.
Así que, en 2015, durante una conferencia científica, organicé un debate sobre esta nueva clase de armas. Poco tiempo después, Max Tegmark, quien dirige el Instituto del Futuro de la Vida del Instituto Tecnológico de Massachusetts, me pidió que lo ayudara a divulgar una carta que hacía un llamado a la comunidad internacional para aprobar una prohibición preventiva contra todas las armas robóticas autónomas.
Firmé la petición y, en la siguiente gran conferencia de inteligencia artificial, la divulgué. Para cuando terminó esa reunión, teníamos más de cinco mil firmas, entre ellas las de personajes como Elon Musk, Daniel Dennett y Steve Wozniak.
¿Cuál era tu argumento?
Que no podemos permitir que las máquinas decidan si los humanos viven o mueren. Es una incursión en territorio virgen. Las máquinas no tienen nuestra brújula moral, nuestra compasión ni nuestras emociones. Las máquinas no son seres morales.
El argumento técnico es que potencialmente se trata de armas de destrucción masiva y la comunidad internacional hasta ahora ha prohibido las demás armas de destrucción masiva.
Lo que hace distintas a estas armas de otras que se han prohibido previamente es su potencial de discriminación. Podrías indicarle: "Solo mata a niños", y después agregar programas de reconocimiento facial al sistema.
Además, si se producen estas armas, desequilibrarían la geopolítica del mundo. Las armas robóticas autónomas serían baratas y fáciles de producir. Algunas pueden fabricarse con una impresora 3D, y podrían caer fácilmente en manos de terroristas.
Otra cosa que las vuelve terriblemente desestabilizadoras es que, con ese tipo de armas, sería difícil saber cuál es el origen de un ataque. Esto ya ha sucedido en el conflicto actual en Siria: tan solo el año pasado hubo un ataque con drones contra una base rusa-siria, y en realidad no sabemos quién fue el responsable.
¿Por qué prohibir un arma antes de que se produzca?
El mejor momento para prohibir ese tipo de armas es antes de que estén disponibles. Es mucho más difícil una vez que se encuentran en las manos equivocadas o que se vuelven una parte aceptada del conjunto de herramientas militares. El tratado sobre armas láser cegadoras de 1995 quizá es el mejor ejemplo de una prohibición preventiva exitosa.
Tristemente, con casi todas las demás armas que se han regulado no tuvimos la precaución para hacerlo antes de que se usaran. Sin embargo, con las armas láser cegadoras, lo logramos. Dos empresas de armas, una china y una estadounidense, habían anunciado su intención de vender armas láser cegadoras poco antes de que entrara en vigor la prohibición. Ninguna de las compañías continuó con sus planes.
¿A quién estaba dirigida tu petición?
A la ONU. Siempre que voy allá, la gente parece estar dispuesta a escucharnos. Ni en mis sueños más alocados esperé sentarme con el subsecretario general de la ONU para darle un informe sobre esta tecnología. Un alto funcionario de la ONU me dijo: "Rara vez vemos que los científicos coinciden en defender la misma postura. Así que cuando eso sucede, los escuchamos".
Hasta ahora, veintiocho países miembro han expresado su apoyo. El parlamento europeo ha hecho un llamado a favor del asunto. El ministro de Asuntos Exteriores alemán también lo ha hecho. ¡Aun así, son veintiocho países de doscientos! No es la mayoría.
¿Quién se opone al tratado?
Los candidatos evidentes son Estados Unidos, el Reino Unido, Rusia, Israel y Corea del Sur. China ha hecho un llamado a favor de la prohibición preventiva contra su despliegue, pero no contra el desarrollo de las armas.
Vale la pena señalar que las empresas que vendan estas armas y las defensas contra estas generarán una gran cantidad de dinero.
Los proponentes de las armas robóticas argumentan que, al limitar el número de combatientes humanos, las máquinas harían que los conflictos fueran menos mortíferos.
También he escuchado esos argumentos. Algunos dicen que las máquinas podrían ser más éticas porque las personas en los conflictos se asustan y hacen cosas terribles. Algunos simpatizantes de la tecnología esperan que eso no suceda si los robots son quienes libran las guerras, porque pueden programarse para apegarse a la ley humanitaria internacional.
El problema con ese argumento es que no tenemos ninguna manera de programar algo tan sutil como la ley humanitaria internacional.
Ahora bien, hay algunas cosas para las que las fuerzas militares puedan utilizar la robótica, para despejar un campo minado, por ejemplo. Si un robot entra y estalla, puedes colocar otro en su lugar.
Desde 2013, has estado invirtiendo la misma cantidad de tiempo en tu activismo que en tus investigaciones científicas. ¿Te arrepientes de algo?
No. Es importante hacer esto ahora mismo. Hace veinte años, como muchos de mis colegas, sentía que lo que estábamos haciendo en la inteligencia artificial estaba tan alejado de la práctica que no debíamos preocuparnos por las consecuencias morales. Eso ya no es verdad.
Tengo una hija de 10 años. Cuando sea adulta, no quiero que me pregunte: "Papá, tenías una plataforma y autoridad. ¿Por qué no trataste de detener esta situación?".
*Copyright: c.2019 New York Times News Service