Inteligencia artificial traerá el fin de la humanidad: advierte experto en IA

Roman Yampolskiy estimó que hay una probabilidad del 99,9% de que esta tecnología implementada en robots cause una catástrofe existencial para la especie humana

Guardar

Nuevo

La transformación de esta tecnología en dispositivos con forma humana puede ser un riesgo para la supervivencia de la sociedad. (Imagen Ilustrativa Infobae)
La transformación de esta tecnología en dispositivos con forma humana puede ser un riesgo para la supervivencia de la sociedad. (Imagen Ilustrativa Infobae)

El experto en seguridad de inteligencia artificial (IA) , Roman Yampolskiy, lanzó una advertencia alarmante acerca de los posibles riesgos que esta tecnología emergente plantea para la supervivencia de la humanidad.

El especialista en una entrevista en el podcast de Lex Fridman estimó que “hay una probabilidad del 99,999999% de que la IA cause una catástrofe existencial para la especie humana”. Esta cifra refleja su profunda preocupación sobre el rumbo que está tomando el desarrollo de la IA en el mundo actual.

Esta afirmación agarra mucha repercusión, porque Yampolskiy ha dedicado su carrera a investigar los peligros y las vulnerabilidades inherentes de los sistemas de IA.

Cuál es el peligro que representa la inteligencia artificial

Como si se tratara de Terminator máquinas podrían tomar el control. (Imagen Ilustrativa Infobae)
Como si se tratara de Terminator máquinas podrían tomar el control. (Imagen Ilustrativa Infobae)

Yampolskiy, en su conversación con Fridman, fue enfático sobre la necesidad de moderar el desarrollo de la IA. Subrayó que los avances, a veces descontrolados en esta tecnología, están aproximándose a un punto en el cual la complejidad de estos sistemas se vuelve prácticamente imposible de manejar con los métodos de seguridad actuales.

“La complejidad inherente a los sistemas de IA avanzada representa un reto casi insuperable para los métodos de seguridad contemporáneos”, afirmó el experto. En su opinión, una vez que la IA alcance altos niveles de sofisticación, el control sobre estos sistemas será casi nulo, lo que podría desencadenar consecuencias devastadoras para la humanidad.

El experto explicó que, para evitar este escenario catastrófico, sería necesario crear software de alta complejidad sin errores en los próximos 100 años, algo que él considera inviable. Citando los fallos recurrentes en las tecnologías actuales, el experto destacó las limitaciones que se enfrentan para conseguir tal grado de perfección.

Por qué no es posible controlar la inteligencia artificial

Todavía no se ha podido crear una protección para posibles irresponsabilidades de la IA. (Imagen Ilustrativa Infobae)
Todavía no se ha podido crear una protección para posibles irresponsabilidades de la IA. (Imagen Ilustrativa Infobae)

Para ilustrar este punto, Yampolskiy mencionó los numerosos fallos de software en sistemas críticos como un claro indicio de la dificultad para garantizar la seguridad de los sistemas de IA. En historia reciente, las vulnerabilidades en diversas tecnologías han demostrado ser potencialmente catastróficas.

En este contexto, el experto manifiesta un pesimismo fundado en la extensa evidencia de fallos recurrentes en sistemas tecnológicos avanzados. Subrayó que la velocidad a la que se desarrollan los sistemas de IA supera la capacidad actual de implementar medidas de seguridad efectivas.

El comportamiento de la inteligencia artificial determinará el futuro del planeta. (Imagen Ilustrativa Infobae)
El comportamiento de la inteligencia artificial determinará el futuro del planeta. (Imagen Ilustrativa Infobae)

Además, insistió en que para mitigar estos riesgos, es imperativo detener el progreso de la IA de inmediato, dándole al mundo una oportunidad de ponerse al día en términos de seguridad y control.

Los pronunciamientos de Yampolskiy brinda una visión detallada sobre las amenazas que, según el experto, la IA presenta para la especie humana. Esta discusión alerta a la comunidad científica y al público sobre la necesidad de una mayor regulación y control sobre los avances en esta tecnología.

Cómo ve el ámbito científico el avance de la inteligencia artificial

Varios expertos alertan sobre las implicaciones de un nulo control de la IA. (Imagen ilustrativa Infobae)
Varios expertos alertan sobre las implicaciones de un nulo control de la IA. (Imagen ilustrativa Infobae)

Esta perspectiva no es nueva en la comunidad científica, pero el énfasis y las cifras presentadas por Yampolskiy añaden un sentido de urgencia a la conversación, junto con la necesidad de establecer directrices estrictas y un marco regulatorio robusto para controlar la evolución de esta tecnología.

En el ámbito académico, el tema del control de la IA ha sido ampliamente debatido. Otros expertos en la materia también han advertido sobre los peligros potenciales que conlleva el desarrollo de sistemas de IA avanzado sin las adecuadas medidas de seguridad.

Varios estudios evidencian que el desarrollo y uso de la IA debe estar guiado por principios morales sólidos y una visión clara de las implicaciones a largo plazo. La capacidad de la IA para afectar todos los aspectos de la vida humana, desde la economía hasta la seguridad nacional, hace de su regulación una tarea de máxima prioridad.

Guardar

Nuevo