OpenAI debería entregar documentos que prueben que no silencia a los empleados que desean compartir preocupaciones con los reguladores federales sobre cómo la compañía de inteligencia artificial está desarrollando sus herramientas, exigió un alto republicano del Senado en una carta del jueves, mostrando la creciente presión bipartidista contra OpenAI para que detalle los pasos que está tomando para asegurarse de que su IA se desarrolle de forma segura.
La carta, que fue obtenida en exclusiva por The Washington Post, fue escrita por el senador Chuck Grassley (republicano de Iowa) y le pide al director ejecutivo de OpenAI, Sam Altman, que describa los cambios que ha realizado en sus acuerdos con los empleados para garantizar que quienes deseen plantear inquietudes sobre OpenAI a los reguladores federales puedan hacerlo sin penalizaciones. La carta llega después de las advertencias de los empleados de que OpenAI se apresuró a realizar las pruebas de seguridad de su último modelo de IA, que se detallaron en The Post el mes pasado.
La carta de Grassley llega apenas unos días después de que cinco senadores (cuatro demócratas y un independiente) enviaran a Altman una carta exigiendo información sobre cómo la empresa cumpliría sus “compromisos públicos” para garantizar que su tecnología de inteligencia artificial no cause daños, como enseñar a los usuarios a construir armas biológicas o ayudar a los piratas informáticos a desarrollar nuevos tipos de ciberataques.
También se produce en medio de las preocupaciones de los empleados de que OpenAI está priorizando las ganancias antes que la seguridad al crear su tecnología. La carta de Grassley cita el informe de julio de The Post que detalla cómo OpenAI se apresuró a lanzar su último modelo de IA, GPT-4 Omni, para cumplir con una fecha de lanzamiento de mayo. Los líderes de la empresa siguieron adelante con el lanzamiento a pesar de las preocupaciones de los empleados sobre el marco de tiempo, y aceleraron las pruebas de seguridad integrales, socavando una promesa de seguridad de julio de 2023 a la Casa Blanca. “No escatimamos en nuestro proceso de seguridad, aunque reconocemos que el lanzamiento fue estresante para nuestros equipos”, dijo la portavoz de OpenAI, Liz Bourgeois, en una declaración anterior a The Post.
La carta de Grassley también se suma a la controversia que ha enfrentado OpenAI sobre si está silenciando a sus empleados para que no compartan sus preocupaciones con las autoridades federales. En una carta de julio a la Comisión de Bolsa y Valores, los denunciantes de OpenAI dijeron que habían presentado una queja ante la agencia alegando que la empresa emitió ilegalmente acuerdos restrictivos de indemnización por despido, confidencialidad y empleo, lo que podría penalizar a los trabajadores que desearan plantear inquietudes a los reguladores federales. Hannah Wong, portavoz de OpenAI, dijo en una declaración en julio que la empresa ha “realizado cambios importantes en nuestro proceso de salida para eliminar los términos de no desprestigio”.
“La política de denuncia de irregularidades de OpenAI protege los derechos de los empleados a plantear problemas, incluso a cualquier agencia gubernamental nacional, federal, estatal o local”, dijo Bourgeois en respuesta a la carta de Grassley. “Anulamos las disposiciones de no desprestigio para todos los empleados actuales y anteriores en mayo y desde entonces hemos actualizado nuestros documentos en consecuencia”.
El rápido avance de la inteligencia artificial ha agudizado las preocupaciones de los responsables políticos sobre el poder de la industria tecnológica, lo que ha provocado una avalancha de demandas de regulación. En Estados Unidos, las empresas de IA operan en gran medida en un vacío legal, y los responsables políticos dicen que no pueden crear eficazmente nuevas políticas de IA sin la ayuda de denunciantes, que pueden ayudar a explicar las posibles amenazas que plantea esta tecnología de rápido avance.
Grassley dijo que “es crucial que OpenAI garantice que sus empleados puedan proporcionar divulgaciones protegidas sin restricciones ilegales”, y agregó que su personal habló con los empleados de OpenAI dos veces en julio para solicitar registros sobre sus acuerdos con los empleados. Clare Slattery, portavoz de Grassley, dijo que el personal del senador solicitó varios documentos sobre los acuerdos de empleo pasados y actuales de la empresa, pero OpenAI aún no los ha proporcionado.
Grassley también citó el informe de The Post de julio, donde un representante de OpenAI dijo que había “reducido” sus pruebas de seguridad de GPT-4 Omni a una semana, como evidencia de por qué los empleados deben poder plantear problemas libremente a los reguladores federales. “Según el artículo, este incidente provocó que varios empleados actuales y anteriores de OpenAI se manifestaran”, dijo Grassley, y agregó que “destacó los daños de los acuerdos de confidencialidad restrictivos en el sector de la IA, específicamente en OpenAI”.
En una declaración en X el jueves, Altman dijo que “queremos que los empleados actuales y anteriores puedan plantear sus inquietudes y se sientan cómodos al hacerlo”. Dijo que en mayo la compañía “anuló los términos de no desprestigio para los empleados actuales y anteriores y las disposiciones que le dieron a OpenAI el derecho (aunque nunca se utilizó) de cancelar el capital adquirido” para los ex empleados que plantearon inquietudes sobre la compañía o hablaron sobre su experiencia.
El miércoles 31 de julio, OpenAI también respondió a los cinco senadores, encabezados por el senador Brian Schatz (demócrata de Hawái), que pidieron detalles sobre los esfuerzos de la empresa para proteger su tecnología. En su carta de respuesta, la empresa dijo que consultó a más de 100 expertos externos para evaluar los riesgos de GPT-4 Omni.
OpenAI debe detallar cuántas veces los empleados le han pedido a la empresa que plantee sus preocupaciones a las autoridades federales, según la carta de Grassley, e identificar si la empresa está siendo investigada por la Comisión de Bolsa y Valores. La empresa tiene hasta el 15 de agosto para responder.