Elon Musk y otros 115 expertos en inteligencia artificial le pidieron a la ONU que se prohíban los robots de guerra

Los especialistas escribieron una carta al organismo donde advierte que las máquinas autónomas podrían liderar una guerra imposible de frenar. "No tenemos demasiado tiempo para actuar. Una vez que esta caja de Pandora esté abierta, será difícil cerrarla", aseguraron

Guardar
Elon Musk, fundador de Tesla, junto a otros 115 especialistas en IA le pidió a la ONU que se impida el desarrollo de robots inteligentes con fines bélicos (REUTERS/Aaron P. Bernstein/File Photo)
Elon Musk, fundador de Tesla, junto a otros 115 especialistas en IA le pidió a la ONU que se impida el desarrollo de robots inteligentes con fines bélicos (REUTERS/Aaron P. Bernstein/File Photo)

Los especialistas escribieron una carta al organismo donde advierte que las máquinas autónomas podrían liderar un conflicto bélico imposible de frenar. "No tenemos demasiado tiempo para actuar. Una vez que esta caja de Pandora esté abierta, será difícil cerrarla", aseguraron

 

¿Es exagerado creer que pronto llegará la época de las guerras de las máquinas? ¿El mundo se está acercando al apocalípsis de las películas de ciencia ficción que muestran enfrentamientos entre humanos y robots? No es tan insensato pensar que esto pueda ocurrir. Al menos no lo es para los 116 especialistas en robótica e inteligencia artificial que firmaron una carta dirigida a las Naciones Unidas para expresarles esta preocupación.

LEA MÁS: Así suena la versión Big Data del hit "El perdedor" de Maluma

En el documento están las voces de pioneros en este tipo de tecnología como Elon Musk, fundador de Tesla y Mustafa Suleyman, cofundador de DeepMind, de Google, entre muchos otros. Allí, los expertos solicitan la prohibición del desarrollo de robots de guerra.

"Una vez que se desarrollen, las letales armas autónomos van a permitir que se lleven a cabo conflictos a una escala como nunca antes se vio y a una velocidad superior a la que los humanos pueden comprender. Éstas pueden ser armas del terror, armas que los déspotas y terroristas podrían usar contra poblaciones inocentes, y que podrían ser hackeadas para actuar de forma indeseada", dice el texto que se dio a conocer en el marco del Congreso Internacional de Inteligencia Artificial (IJCAI) que comenzó ayer, en Melbourne, Australia.

Fedor, el robot ruso capaz de disparar con precisión milimétrica.
Fedor, el robot ruso capaz de disparar con precisión milimétrica.

No es la primera vez que especialistas en inteligencia artificial (IA) advierten sobre los peligros del avance sin control de este tipo de desarrollos. Elon Musk mostró en diferentes oportunidades su preocupación por el alcance que puede tener el aprendizaje de las máquinas.

El fundador de Tesla cree que hay que es necesario establecer límites y regulaciones para evitar que se haga un uso nocivo de esta tecnología. De hecho sostiene una postura diferente al laissez faire que pregona Mark Zuckerberg, quien critica las versiones apocalípticas de algunos de sus colegas.

Hace unas semanas trascendió que Facebook decidió apagar un sistema de inteligencia artificial que había comenzado a desarrollar su propio lenguaje. Desde la empresa dejaron ver que se dio por terminado el proyecto porque el idioma que había creado la máquina no resultaba útil para el propósito para el cual había sido creada, que era negociar con humanos.

Sin embargo, algunos vieron en esta situación algo más: un indicio de las máquinas pueden salirse de control y volverse totalmente autónomas,  al punto de que podrían tomar sus propias decisiones, y así volverse incomprensibles.

LEA MÁS: Así se usa la inteligencia artificial para combatir el ciberdelito

Existen argumentos para pensar que quizás todo se trate de una exageración o incluso para sostener que es imposible que algo de esto ocurra, sin embargo hay 116 especialistas en IA que se muestran preocupados por las consecuencias del avance sin control de los robots.

En la carta explicaron que podría ocurrir una tercera guerra a nivel mundial liderada por máquinas autónomas. Y que esto no es algo que sucedería en décadas sino en apenas algunos años, si es que no se toma una resolución para frenar la creación de equipos inteligentes con fines bélicos.

"No tenemos demasiado tiempo para actuar. Una vez que esta caja de Pandora esté abierta, será difícil cerrarla", se concluye en el escrito.

LEA MÁS: 

Asombroso: la inteligencia artificial de Google creó un idioma propio

Cómo la inteligencia artificial ya permite leer la mente

6 mentes poderosas (y muy bien cotizadas) en el mundo de la tecnología

Guardar