OpenAI afirma que el polémico proyecto de ley sobre Inteligencia Artificial de California perjudicará la innovación

La startup escribió una carta al senador del Estado de California Scott Wiener oponiéndose a la legislación

Guardar

Nuevo

OpenAI se opone al proyecto de ley SB 1047 en California, alegando que podría frenar la innovación en IA y afectar la competitividad de EE.UU. (AP/Michael Dwyer)
OpenAI se opone al proyecto de ley SB 1047 en California, alegando que podría frenar la innovación en IA y afectar la competitividad de EE.UU. (AP/Michael Dwyer)

OpenAI se opone a un proyecto de ley en California que impondría nuevos requisitos de seguridad a las empresas de inteligencia artificial, uniéndose a un coro de líderes tecnológicos y políticos que se han manifestado recientemente en contra de la controvertida legislación.

La startup, con sede en San Francisco, afirma que el proyecto de ley perjudicaría a la innovación en el sector de la IA y argumenta que la regulación en esta materia debería venir del gobierno federal y no de los estados, según una carta enviada el miércoles a la oficina del senador estatal de California Scott Wiener y obtenida por Bloomberg News. La carta también planteaba la preocupación de que el proyecto de ley, si se aprueba, podría tener implicaciones “amplias y significativas” para la competitividad de Estados Unidos en IA y la seguridad nacional.

El proyecto de ley SB 1047, presentado por Wiener, pretende promulgar lo que su oficina ha denominado “normas de seguridad de sentido común” para las empresas que fabrican grandes modelos de IA por encima de un umbral específico de tamaño y coste. El proyecto de ley, que fue aprobado por el Senado del estado en mayo, exigiría a las empresas de IA que tomen medidas para evitar que sus modelos causen “daños críticos”, como permitir el desarrollo de armas biológicas que puedan causar víctimas humanas en masa o contribuir a daños financieros de más de 500 millones de dólares.

De acuerdo con el proyecto de ley, las empresas tendrían que garantizar que los sistemas de inteligencia artificial pueden desconectarse, tomar “precauciones razonables” para que los modelos de IA no provoquen catástrofes y presentar una declaración de conformidad al fiscal general de California. Si las empresas no cumplen estos requisitos, podrían ser demandadas y enfrentarse a sanciones civiles.

El senador Scott Wiener presentó el proyecto de ley SB 1047, que propone nuevas normas de seguridad para empresas de IA. (AP/Rich Pedroncelli)
El senador Scott Wiener presentó el proyecto de ley SB 1047, que propone nuevas normas de seguridad para empresas de IA. (AP/Rich Pedroncelli)

El proyecto de ley ha recibido una feroz oposición por parte de muchas grandes empresas tecnológicas, startups e inversores de capital riesgo que afirman que es una extralimitación para una tecnología que aún está en pañales y que podría ahogar la innovación tecnológica en el estado. Algunos detractores de la ley temen que pueda expulsar a las empresas de IA de California. OpenAI se hizo eco de estas preocupaciones en la carta enviada a la oficina de Wiener.

“La revolución de la IA no ha hecho más que empezar, y el estatus único de California como líder mundial en IA está impulsando el dinamismo económico del estado”, escribió Jason Kwon, director de estrategia de OpenAI, en la carta. “El SB 1047 amenazaría ese crecimiento, ralentizaría el ritmo de la innovación y llevaría a los ingenieros y emprendedores de clase mundial de California a abandonar el estado en busca de mayores oportunidades en otros lugares”.

OpenAI dejó en suspenso las conversaciones sobre la ampliación de sus oficinas en San Francisco ante la incertidumbre sobre el panorama normativo de California, según una persona familiarizada con los planes inmobiliarios de la empresa que pidió el anonimato para hablar de conversaciones internas.

En un comunicado, Wiener defendió la legislación propuesta y dijo que la carta de OpenAI “no critica ni una sola disposición del proyecto de ley”. También dijo que el argumento sobre el talento de IA que abandona el estado “no tiene sentido” porque la ley se aplicaría a cualquier empresa que realice negocios en California, independientemente de dónde se encuentren sus oficinas. Un representante de la oficina de Wiener señaló a dos destacados expertos en seguridad nacional que han apoyado públicamente el proyecto de ley.

El proyecto de ley SB 1047 ha generado una fuerte reacción en la industria tecnológica, con OpenAI y otras empresas advirtiendo sobre sus posibles impactos negativos. (EFE/Wu Hao)
El proyecto de ley SB 1047 ha generado una fuerte reacción en la industria tecnológica, con OpenAI y otras empresas advirtiendo sobre sus posibles impactos negativos. (EFE/Wu Hao)

“En resumen: El SB 1047 es un proyecto de ley muy razonable que pide a los grandes laboratorios de IA que hagan lo que ya se han comprometido a hacer, es decir, probar sus grandes modelos para detectar riesgos de seguridad catastróficos”, dijo Wiener. “El SB 1047 está bien calibrada con lo que sabemos sobre los riesgos previsibles de la IA, y merece ser promulgada”.

Los detractores sostienen que el proyecto de ley obstaculizará la innovación al exigir a las empresas que presenten detalles sobre sus modelos al gobierno estatal, además de impedir que los desarrolladores de código abierto más pequeños creen startups por miedo a ser demandados.

La semana pasada, en un esfuerzo por hacer frente a algunas de las críticas, Wiener modificó la legislación propuesta para eliminar la responsabilidad penal de las empresas tecnológicas que no cumplan la normativa, añadió una protección para los desarrolladores de modelos de código abierto más pequeños y se deshizo de la nueva “División de Modelos Fronterizos” propuesta.

Anteriormente, los desarrolladores podían incurrir en sanciones penales por presentar intencionadamente al gobierno información falsa sobre sus planes de seguridad bajo pena de perjurio. El rival de OpenAI, Anthropic, que tiene fama de estar más orientado a la seguridad que sus competidores, había dicho anteriormente que apoyaría el proyecto de ley con algunas de estas enmiendas.

Con el SB 1047 en la mira, OpenAI suspende la expansión de sus oficinas en San Francisco debido a la incertidumbre regulatoria en California. (REUTERS/Carlos Barria)
Con el SB 1047 en la mira, OpenAI suspende la expansión de sus oficinas en San Francisco debido a la incertidumbre regulatoria en California. (REUTERS/Carlos Barria)

Pero incluso después de que se presentaran las enmiendas, el proyecto de ley ha seguido acumulando opositores, entre ellos la ex presidenta de la Cámara de Representantes Nancy Pelosi, que hizo pública una declaración en la que lo calificaba de “mal informado”. Un grupo de congresistas demócratas también se opuso públicamente al proyecto de ley.

OpenAI y otras empresas de la industria tecnológica han contratado a grupos de presión que han estado trabajando en el proyecto de ley, según los archivos estatales. En la carta, OpenAI afirma que lleva varios meses trabajando con la oficina de Wiener sobre el proyecto de ley, pero que finalmente no lo apoya.

“Debemos proteger la ventaja de la IA en Estados Unidos con un conjunto de políticas federales -en lugar de estatales- que puedan proporcionar claridad y certidumbre a los laboratorios y desarrolladores de IA, preservando al mismo tiempo la seguridad pública”, según la carta.

OpenAI también dijo que tener un marco federal claro “ayudaría a Estados Unidos a mantener su ventaja competitiva frente a países como China y a avanzar en la gobernanza y los valores democráticos en todo el mundo.” OpenAI argumentó que organismos federales como la Oficina de Política Científica y Tecnológica de la Casa Blanca, el Departamento de Comercio y el Consejo de Seguridad Nacional son más adecuados para gobernar los riesgos críticos de la IA que los organismos estatales del gobierno de California.

El SB 1047 y sus enmiendas recientes buscan equilibrar la seguridad y la innovación en IA, pero aún enfrentan resistencia de grandes empresas tecnológicas y expertos. (Reuters)
El SB 1047 y sus enmiendas recientes buscan equilibrar la seguridad y la innovación en IA, pero aún enfrentan resistencia de grandes empresas tecnológicas y expertos. (Reuters)

La empresa afirma que apoya varias propuestas legislativas federales, como la Ley sobre el Futuro de la Innovación en Inteligencia Artificial (Future of AI Innovation Act), que prevé el respaldo del Congreso al nuevo Instituto de Seguridad en Inteligencia Artificial de Estados Unidos. “Como he dicho en repetidas ocasiones, estoy de acuerdo en que lo ideal sería que el Congreso se ocupara de esto”, afirma Wiener en el comunicado. “Sin embargo, el Congreso no lo ha hecho y somos escépticos de que vaya a hacerlo”.

Según el argumento de OpenAI sobre el Congreso, California nunca habría aprobado su ley de privacidad de datos, y dada la falta de acción del Congreso, los californianos no tendrían protección alguna para sus datos. El SB 1047 se votará en la asamblea del estado de California en algún momento de este mes. Si se aprueba, pasará finalmente a la mesa del Gobernador de California, Gavin Newsom. Aunque Newsom no ha indicado si vetará el proyecto de ley, ha hablado públicamente de la necesidad de promover la innovación de la IA en California al tiempo que se mitigan sus riesgos.

(c) 2024, Bloomberg

Guardar

Nuevo