Qué pasa si el apocalipsis llega a la Tierra: esta mochila del creador de ChatGPT lo podría evitar

Sam Altman no se separa de su maleta, que está diseñada para resistir condiciones extremas. Adentro tiene contenido que puede salvar a la humanidad

Guardar

Nuevo

Sam Altman teme a un apocalipsis en el que la IA ponga en riesgo la vida de los humanos. (REUTERS/Brendan McDermid)
Sam Altman teme a un apocalipsis en el que la IA ponga en riesgo la vida de los humanos. (REUTERS/Brendan McDermid)

Sam Altman, cofundador de OpenAI y creador de ChatGPT, está preparado para el apocalipsis, especialmente si la inteligencia artificial es una de las responsables o si el sistema se puede convertir en un riesgo para la humanidad. Y todo está dentro de una mochila.

Adonde él vaya su “mochila nuclear”, como es conocida, lo acompaña. Lo que hay allí dentro funciona como un interruptor, un concepto que inspira en el “botón nuclear” del presidente de los Estados Unidos, Joe Biden.

Al igual que el maletín de cuero negro que acompaña al presidente en todos sus viajes, conteniendo los códigos y herramientas necesarios para autorizar un ataque nuclear, la mochila de Altman está diseñada para intervenir en una situación de crisis extrema. La diferencia es que, en lugar de destruir, el objetivo es evitar un desastre causado por una inteligencia artificial descontrolada.

Sam Altman teme a un apocalipsis en el que la IA ponga en riesgo la vida de los humanos. (Sven Hoppe/Dpa)
Sam Altman teme a un apocalipsis en el que la IA ponga en riesgo la vida de los humanos. (Sven Hoppe/Dpa)

Qué hay dentro de la mochila de Altman

La famosa mochila azul de Altman, aparentemente común y corriente, contiene una herramienta crucial: un MacBook Pro de 14 pulgadas. Este equipo no es simplemente una herramienta de trabajo, sino que está configurado para apagar todos los servidores de OpenAI en caso de una emergencia apocalíptica.

Esta maleta cuenta con materiales que le permiten tener una alta resistencia a condiciones extremas. Está equipada con compartimentos especiales para equipo de cómputo, lo que facilita el transporte seguro de su valioso contenido. A simple vista, podría parecer la mochila de cualquier profesional de la tecnología, pero en su interior alberga el poder de desconectar una de las IA más avanzadas del mundo.

Dentro de esta mochila, además del MacBook Pro, Altman lleva lo esencial para su trabajo diario, como una tableta y cargadores. Sin embargo, la capacidad del MacBook Pro para apagar los servidores de OpenAI lo convierte en una herramienta única y vital.

Sam Altman teme a un apocalipsis en el que la IA ponga en riesgo la vida de los humanos. (Imagen Ilustrativa Infobae)
Sam Altman teme a un apocalipsis en el que la IA ponga en riesgo la vida de los humanos. (Imagen Ilustrativa Infobae)

Según diversos medios especializados, este equipo está conectado a la red de OpenAI y tiene la capacidad de destruir todos los servidores que albergan su inteligencia artificial, deteniendo cualquier actividad potencialmente peligrosa.

Las preocupaciones de Altman tienen un origen. La historia de la IA está llena de ejemplos de cómo la tecnología podría volverse contra sus creadores. La saga de películas de Terminator y la temida Skynet han inspirado muchas de estas preocupaciones, de las que el CEO de OpenAI es consciente, al entender el riesgo real de una amenaza de la IA.

En varias ocasiones, ha hablado sobre el “riesgo de extinción” y la necesidad de tomar precauciones para evitar que la IA se salga de control.

Sam Altman teme a un apocalipsis en el que la IA ponga en riesgo la vida de los humanos. (Imagen Ilustrativa Infobae)
Sam Altman teme a un apocalipsis en el que la IA ponga en riesgo la vida de los humanos. (Imagen Ilustrativa Infobae)

Los riesgos y preocupaciones sobre la IA

El experto en seguridad de inteligencia artificial, Roman Yampolskiy, lanzó una advertencia acerca de los posibles riesgos que esta tecnología emergente plantea para la supervivencia de la humanidad.

El especialista en una entrevista en el podcast de Lex Fridman estimó que “hay una probabilidad del 99,999999% de que la IA cause una catástrofe existencial para la especie humana”. Esta cifra refleja su profunda preocupación sobre el rumbo que está tomando el desarrollo de la IA en el mundo actual.

Yampolskiy, en su conversación con Fridman, fue enfático sobre la necesidad de moderar el desarrollo de la IA. Subrayó que los avances, a veces descontrolados en esta tecnología, están aproximándose a un punto en el cual la complejidad de estos sistemas se vuelve prácticamente imposible de manejar con los métodos de seguridad actuales.

“La complejidad inherente a los sistemas de IA avanzada representa un reto casi insuperable para los métodos de seguridad contemporáneos”, afirmó el experto. En su opinión, una vez que la IA alcance altos niveles de sofisticación, el control sobre estos sistemas será casi nulo, lo que podría desencadenar consecuencias devastadoras para la humanidad.

Guardar

Nuevo