La inteligencia artificial no solo reemplazará empleos, también extinguirá a los humanos

Expertos advierten que el avance de esta tecnología hará que las máquinas se vuelvan autónomas y sea imposible controlarlas, como si se tratara de un apocalípsis visto solo en la ficción

Guardar
El futuro puede enfrentar a
El futuro puede enfrentar a los humanos contra robots impulsados por sistemas autónomos. (Imagen Ilustrativa Infobae)

Si el reemplazo por sistemas automatizados era un riesgo para millones de empleados, se le suma la advertencia de Roman Yampolskiy, un destacado experto en seguridad de Inteligencia Artificial (IA), que ha levantado la voz para expresar su preocupación por los peligros de extinción de la raza humana inherentes a esta tecnología emergente.

En una reciente entrevista en el pódcast de Lex Fridman, Yampolskiy no dudó en puntualizar que la IA, “si no se controla adecuadamente, podría derivar en la extinción de la humanidad”.

Con cifras alarmantes, el experto estimó que “existe una probabilidad del 99,999999% de que la IA cause una catástrofe existencial para esta especie”.

Por qué la inteligencia artificial podría extinguir a los humanos

Los sistemas automatizados pueden volverse
Los sistemas automatizados pueden volverse en contra de sus creadores. (Imagen Ilustrativa Infobae)

Las razones detrás de la extinción de la raza humana se fundamentan en la conversación con Fridman, donde Yampolskiy detalló sus inquietudes sobre la velocidad y dirección del actual desarrollo de la IA.

Subrayó con insistencia que el avance de esta tecnología debe detenerse de inmediato, argumentando que una vez que la IA alcance niveles más sofisticados, será casi imposible mantenerla bajo control.

Este punto es crucial, debido a que, según el investigador, “la complejidad inherente a los sistemas de IA avanzada representa un reto casi insuperable para los métodos de seguridad contemporáneos”.

Cómo prevenir que la IA sea una amenaza para los humanos

Para prevenir la amenaza existencial que plantea la IA, Yampolskiy enfatizó que sería necesario desarrollar software de alta complejidad sin errores a lo largo de los próximos 100 años. Sin embargo, el experto es pesimista al respecto, considerando este escenario prácticamente inviable.

El experto es claro en
El experto es claro en decir que todavía no se ha creado una IA que sea segura y confiable. (Imagen ilustrativa Infobae)

Citó los fallos recurrentes en las tecnologías actuales como una evidencia clara de las limitaciones que se enfrentan para lograr este nivel de perfección.

La historia de los errores de software en sistemas críticos resalta su argumento de que, con la misma probabilidad, los sistemas de IA también estarían plagados de vulnerabilidades potencialmente catastróficas.

Por qué la IA no es completamente segura

La seguridad de los sistemas de inteligencia artificial se soportan en uno de los conceptos más perturbadores planteados por Yampolskiy, el cual es la idea de una “máquina de seguridad perpetua”.

Proponer un dispositivo o sistema que pueda garantizar de manera continua la seguridad de la IA es una solución que, aunque suena ambiciosa, está llena de incertidumbres y desafíos técnicos significativos.

Una posible rebelión de las
Una posible rebelión de las máquinas como la ficción plantea el avance de la inteligencia artificial. (Imagen Ilustrativa Infobae)

A pesar de que este concepto podría actuar como una barrera contra los riesgos de la IA, su implementación en la práctica enfrenta numerosos obstáculos.

Cómo el mundo puede analizar el avance de la IA

El análisis de la IA en el mundo actual se plantea en el libro “AI: Unexplainable, Unpredictable, Uncontrollable” (IA: Inexplicable, Impredecible, Incontrolable), donde Yampolskiy explora en detalle estas preocupaciones, brindando una visión exhaustiva sobre los peligros de una tecnología con el potencial de descontrolarse.

Este libro pretende ser una llamada de atención para investigadores, desarrolladores y legisladores sobre la necesidad de abordar de manera responsable el desarrollo y la implementación de la IA.

Hay que destacar que Yampolskiy no es el único experto en el campo que comparte estos temores. Numerosos investigadores han alzado sus voces para advertir sobre los peligros de una inteligencia artificial no regulada.

El desarrollo de ChatGPT también
El desarrollo de ChatGPT también genera terror en los expertos. (Foto: EFE/EPA/Wu Hao)

Ejemplos recientes, como el progreso continuo de ChatGPT, ilustran lo que Yampolskiy describe como un riesgo considerable. Estos modelos de lenguaje avanzada continúan aprendiendo y mejorando con el tiempo, y aunque ofrecen beneficios innegables, también plantean preguntas inquietantes sobre el control y la supervisión.

Cómo encontrar un equilibrio entre los beneficios y amenazas de la IA

Para encontrar un equilibrio entre los beneficios y contrarrestar las amenazas de la IA, hay que entender que el progreso de la IA no solo transforma industrias y revoluciona la vida cotidiana, sino que también nos enfrenta a un dilema moral y existencial que va más allá de las simples mejoras tecnológicas.

Yampolskiy enfatiza que la situación actual plantea un desafío monumental: la humanidad debe decidir entre una posible era de prosperidad sin precedentes orquestada por la IA, o la perturbadora posibilidad de su propia extinción debido a un potencial descontrol de esta tecnología.

Asimismo, a medida que las dudas y preocupaciones sobre la IA crecen, se vuelve imperativo que la comunidad internacional formule y adopte medidas rigurosas para la supervisión y regulación de su desarrollo.

Las advertencias de Yampolskiy y otros expertos en la materia son un recordatorio de que, aunque la IA tiene el potencial de transformar el futuro de la humanidad positivamente, también trae consigo peligros que no deben ser subestimados.

Guardar