Los especialistas escribieron una carta al organismo donde advierte que las máquinas autónomas podrían liderar un conflicto bélico imposible de frenar. "No tenemos demasiado tiempo para actuar. Una vez que esta caja de Pandora esté abierta, será difícil cerrarla", aseguraron
¿Es exagerado creer que pronto llegará la época de las guerras de las máquinas? ¿El mundo se está acercando al apocalípsis de las películas de ciencia ficción que muestran enfrentamientos entre humanos y robots? No es tan insensato pensar que esto pueda ocurrir. Al menos no lo es para los 116 especialistas en robótica e inteligencia artificial que firmaron una carta dirigida a las Naciones Unidas para expresarles esta preocupación.
LEA MÁS: Así suena la versión Big Data del hit "El perdedor" de Maluma
En el documento están las voces de pioneros en este tipo de tecnología como Elon Musk, fundador de Tesla y Mustafa Suleyman, cofundador de DeepMind, de Google, entre muchos otros. Allí, los expertos solicitan la prohibición del desarrollo de robots de guerra.
"Una vez que se desarrollen, las letales armas autónomos van a permitir que se lleven a cabo conflictos a una escala como nunca antes se vio y a una velocidad superior a la que los humanos pueden comprender. Éstas pueden ser armas del terror, armas que los déspotas y terroristas podrían usar contra poblaciones inocentes, y que podrían ser hackeadas para actuar de forma indeseada", dice el texto que se dio a conocer en el marco del Congreso Internacional de Inteligencia Artificial (IJCAI) que comenzó ayer, en Melbourne, Australia.
No es la primera vez que especialistas en inteligencia artificial (IA) advierten sobre los peligros del avance sin control de este tipo de desarrollos. Elon Musk mostró en diferentes oportunidades su preocupación por el alcance que puede tener el aprendizaje de las máquinas.
El fundador de Tesla cree que hay que es necesario establecer límites y regulaciones para evitar que se haga un uso nocivo de esta tecnología. De hecho sostiene una postura diferente al laissez faire que pregona Mark Zuckerberg, quien critica las versiones apocalípticas de algunos de sus colegas.
Hace unas semanas trascendió que Facebook decidió apagar un sistema de inteligencia artificial que había comenzado a desarrollar su propio lenguaje. Desde la empresa dejaron ver que se dio por terminado el proyecto porque el idioma que había creado la máquina no resultaba útil para el propósito para el cual había sido creada, que era negociar con humanos.
Sin embargo, algunos vieron en esta situación algo más: un indicio de las máquinas pueden salirse de control y volverse totalmente autónomas, al punto de que podrían tomar sus propias decisiones, y así volverse incomprensibles.
LEA MÁS: Así se usa la inteligencia artificial para combatir el ciberdelito
Existen argumentos para pensar que quizás todo se trate de una exageración o incluso para sostener que es imposible que algo de esto ocurra, sin embargo hay 116 especialistas en IA que se muestran preocupados por las consecuencias del avance sin control de los robots.
En la carta explicaron que podría ocurrir una tercera guerra a nivel mundial liderada por máquinas autónomas. Y que esto no es algo que sucedería en décadas sino en apenas algunos años, si es que no se toma una resolución para frenar la creación de equipos inteligentes con fines bélicos.
"No tenemos demasiado tiempo para actuar. Una vez que esta caja de Pandora esté abierta, será difícil cerrarla", se concluye en el escrito.
LEA MÁS:
Asombroso: la inteligencia artificial de Google creó un idioma propio
Cómo la inteligencia artificial ya permite leer la mente
6 mentes poderosas (y muy bien cotizadas) en el mundo de la tecnología