La inteligencia artificial podría desencadenar una catástrofe para la humanidad, según un nuevo estudio

El documento encargado por el Departamento de Estado de Estados Unidos sugiere que sin una acción rápida y determinante, la IA podría suponer una amenaza de extinción similar o mayor a la que alguna vez representaron las armas nucleares

Guardar

Nuevo

El gobierno de Estados Unidos debe actuar "rápida y decisivamente" para evitar riesgos significativos de seguridad nacional por IA, reveló nuevo informe. (Imagen Ilustrativa Infobae)
El gobierno de Estados Unidos debe actuar "rápida y decisivamente" para evitar riesgos significativos de seguridad nacional por IA, reveló nuevo informe. (Imagen Ilustrativa Infobae)

En un informe encargado por el gobierno de Estados Unidos, expertos advierten sobre los riesgos de seguridad nacional que presentan los avances actuales en inteligencia artificial (IA), incluso sugiriendo que podrían constituir una amenaza de extinción para la especie humana si no se actúa de manera “rápida y decisiva”.

Según el documento, obtenido de manera exclusiva por Time Magazine antes de su publicación, el desarrollo de IA de vanguardia plantea riesgos urgentes y crecientes, comparando su potencial para desestabilizar la seguridad global con la introducción de armas nucleares.

El informe, titulado “Un Plan de Acción para Aumentar la Seguridad y la Seguridad de la IA Avanzada”, fue encargado por el Departamento de Estado de Estados Unidos en noviembre del 2022 bajo un contrato federal de 250,000 dólares, según registros públicos.

Los desarrollos actuales en IA presentan riesgos urgentes y crecientes para la seguridad nacional. (Imagen Ilustrativa Infobae)
Los desarrollos actuales en IA presentan riesgos urgentes y crecientes para la seguridad nacional. (Imagen Ilustrativa Infobae)

Fue elaborado por Gladstone AI, una pequeña empresa dedicada a impartir sesiones técnicas sobre IA a empleados gubernamentales, tras más de un año de investigación y diálogos con más de 200 empleados del gobierno, expertos y trabajadores de compañías de IA de vanguardia como OpenAI, Google DeepMind, Anthropic y Meta.

Entre las recomendaciones del informe, destaca la propuesta de hacer ilegal el entrenamiento de modelos de IA utilizando más de cierto nivel de potencia de cálculo, sugiriendo que tal umbral sea establecido por una nueva agencia federal de IA. Esta agencia también debería requerir que las empresas de IA en la “frontera” de la industria obtengan permiso del gobierno para entrenar y desplegar nuevos modelos por encima de un cierto umbral inferior.

El documento sugiere, además, considerar urgentemente la prohibición de la publicación de los “pesos” (configuraciones internas) de modelos de IA potentes, donde las violaciones podrían ser castigadas con tiempo en prisión, y recomienda un mayor control en la fabricación y exportación de chips de IA, así como un incremento en la financiación federal hacia la investigación de “alineamiento” para hacer la IA avanzada más segura.

La propuesta surge en un contexto de creciente inquietud pública sobre las capacidades y el potencial impacto de sistemas inteligentes más avanzados, evidenciado por la rápida adopción de herramientas como ChatGPT. (EFE/EPA/Wu Hao)
La propuesta surge en un contexto de creciente inquietud pública sobre las capacidades y el potencial impacto de sistemas inteligentes más avanzados, evidenciado por la rápida adopción de herramientas como ChatGPT. (EFE/EPA/Wu Hao)

Las conversaciones con trabajadores de seguridad de IA en laboratorios de vanguardia revelan una preocupación por los incentivos perversos que guían la toma de decisiones de los ejecutivos que controlan sus empresas. “El auge de la IA avanzada y la IA general artificial tiene el potencial de desestabilizar la seguridad global de maneras reminiscentes a la introducción de armas nucleares”, señala el informe.

Esta advertencia llega en un momento de rápido desarrollo tecnológico, visible ampliamente desde el lanzamiento del chatbot ChatGPT en noviembre de 2022, que ha llevado a muchos a cuestionar los posibles riesgos existenciales de futuras IA.

Herramientas nuevas, con más capacidades, han seguido siendo lanzadas a un ritmo acelerado desde entonces. Mientras los gobiernos del mundo discuten cómo regular mejor la IA, las principales empresas tecnológicas ya están construyendo la infraestructura para entrenar la próxima generación de sistemas más potentes, planeando en algunos casos utilizar 10 o 100 veces más potencia de cálculo.

A medida que los gobiernos discuten regulaciones para IA, las grandes tecnológicas avanzan en desarrollar sistemas más poderosos. (Imagen Ilustrativa Infobae)
A medida que los gobiernos discuten regulaciones para IA, las grandes tecnológicas avanzan en desarrollar sistemas más poderosos. (Imagen Ilustrativa Infobae)

Según una encuesta realizada recientemente por el Instituto de Política de IA, más del 80% del público estadounidense cree que la IA podría causar accidentalmente un evento catastrófico, y el 77% de los votantes piensa que el gobierno debería hacer más para regular la IA.

El Departamento de Estado no respondió a varias solicitudes de comentarios sobre el informe realizadas por Time Magazine. Cabe destacar que la primera página del informe aclara que las recomendaciones “no reflejan las vistas del Departamento de Estado de Estados Unidos ni del Gobierno de Estados Unidos”, mostrando una distinción clara entre los hallazgos del informe y la posición oficial del gobierno.

Guardar

Nuevo