Crear armas con inteligencia artificial, el nuevo debate global sobre la destrucción masiva

El documento presentado en California, Estados Unidos, busca que los desarrolladores de modelos de inteligencia artificial asuman la responsabilidad si su tecnología falla

Guardar
La IA tendría el potencial de ser una amenaza para la integridad de las personas.  (Imagen ilustrativa Infobae)
La IA tendría el potencial de ser una amenaza para la integridad de las personas. (Imagen ilustrativa Infobae)

En California, Estados Unidos, se está avanzando en un proyecto de ley que busca implementar un control humano sobre los sistemas de inteligencia artificial.

El objetivo de la ley es mitigar el riesgo de que la IA se utilice para crear nuevas amenazas a la seguridad pública. Esto incluye la posibilidad de desarrollar armas de destrucción masiva, como armas biológicas, químicas y nucleares, así como armas con capacidades cibernéticas ofensivas.

El borrador de la “ley de innovación segura para modelos de inteligencia artificial de frontera” y presentado por el senador Scott Wiener, clasifica a la IA como una posible “amenaza persistente avanzada”.

Esta designación se refiere a adversarios altamente sofisticados que poseen recursos significativos y pueden utilizar diversos métodos de ataque, como cibernéticos, físicos y de engaño, para poner en peligro la seguridad.

El proyecto de ley busca establecer algunas medidas para que los desarrolladores respondan si su IA falla. (California Legislative Information)
El proyecto de ley busca establecer algunas medidas para que los desarrolladores respondan si su IA falla. (California Legislative Information)

Qué busca este proyecto de ley

El proyecto de ley propone requisitos para que los desarrolladores implementen protocolos de seguridad y la capacidad de apagar por completo los modelos si representan un riesgo crítico.

También se crea una nueva división dentro de la Agencia de Operaciones Gubernamentales, encargada de supervisar el cumplimiento y emitir orientaciones. Además, se establecen sanciones civiles y protecciones para los denunciantes.

El proyecto de ley SB 1047 propone varias sanciones para los desarrolladores de modelos de inteligencia artificial que no cumplan con sus disposiciones. Estas incluyen:

Los modelos de IA tendrían la capacidad de crear armas biológicas que pondrían en riesgo a la humanidad.  (Imagen Ilustrativa Infobae)
Los modelos de IA tendrían la capacidad de crear armas biológicas que pondrían en riesgo a la humanidad. (Imagen Ilustrativa Infobae)
  • Multas civiles: Hasta el 10% del costo de la potencia de cálculo utilizada para entrenar el modelo en la primera infracción, y hasta el 30% para infracciones posteriores.
  • Acciones civiles: Se pueden imponer medidas como la eliminación del modelo y la suspensión de su uso si representa una amenaza.
  • Daños monetarios y punitivos: Para personas afectadas por incumplimientos.

Además, se establecen protecciones para los empleados denunciantes y se prevé la posibilidad de intervención judicial para garantizar el cumplimiento de las normas.

La IA tendría el potencial de ser una amenaza para la ciberseguridad. según el proyecto de ley. (Imagen Ilustrativa Infobae)
La IA tendría el potencial de ser una amenaza para la ciberseguridad. según el proyecto de ley. (Imagen Ilustrativa Infobae)

Cabe señalar que un proyecto de ley es una propuesta formal de legislación que se presenta ante una entidad legislativa con el objetivo de convertirse en ley.

Aunque sugiere nuevas reglas o modificaciones, aún no es una ley en sí misma. El proyecto debe pasar por un proceso de revisión, debate y aprobación por parte de los legisladores. Solo después de este proceso, y si recibe el visto bueno final, el proyecto se convierte en ley y entra en vigor.

Cuál es el siguiente paso para este proyecto de ley

El proyecto de ley SB 1047 está ahora listo para ser votado por toda la Asamblea de California. Si recibe la aprobación allí, deberá regresar al Senado de California para otra votación. Si el proyecto es aprobado en ambas cámaras, se enviará al gobernador de California, Gavin Newsom, quien decidirá si lo firma y lo convierte en ley o si lo veta.

Google y otras empresas líderes en el desarrollo de modelos de IA firmaron un acuerdo voluntario de crear tecnologías seguras. REUTERS/Steve Marcus/File Photo
Google y otras empresas líderes en el desarrollo de modelos de IA firmaron un acuerdo voluntario de crear tecnologías seguras. REUTERS/Steve Marcus/File Photo

Apple, Google y más empresas se comprometen a crear IAs seguras

Apple, Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI han firmado un compromiso voluntario para promover el desarrollo de modelos de inteligencia artificial seguros para la humanidad. Los puntos clave del acuerdo incluyen:

  • Realizar evaluaciones internas y externas de los modelos y sistemas, abordando el uso indebido, los riesgos sociales y las preocupaciones de seguridad nacional, como la bioseguridad y la ciberseguridad.
  • Prohibir la creación de modelos con la capacidad de autorreplicarse o hacer copias de sí mismos.
  • Desarrollar mecanismos que permitan a los usuarios identificar si el contenido de audio o visual ha sido generado por IA.
  • Informar públicamente sobre las capacidades de los modelos o sistemas.

Este acuerdo voluntario es parte de una orden ejecutiva emitida por el presidente de Estados Unidos, Joe Biden. El documento establece medidas para mitigar los riesgos de seguridad asociados con la inteligencia artificial, proteger la privacidad de los estadounidenses, promover la equidad y los derechos civiles, defender a los consumidores y trabajadores, y fomentar la innovación y la competencia.

Guardar