Los delegados republicanos reunidos esta semana en Milwaukee se comprometieron a revertir las restricciones federales a la inteligencia artificial, mientras que otros aliados del expresidente Donald Trump presentaron planes para “Proyectos Manhattan” para impulsar la IA militar.
Pero en California, la legislatura del estado, controlada por los demócratas, se está moviendo en la dirección opuesta y está debatiendo una propuesta que obligaría a las empresas más grandes y mejor financiadas a probar su IA para detectar riesgos “catastróficos” antes de lanzarla al público.
La medida, escrita por Scott Wiener, un senador estatal demócrata de San Francisco, ha provocado aullidos de los líderes de la industria tecnológica, quienes argumentan que asustaría a los tecnólogos que buscan construir herramientas de IA en el estado y agregaría trabajo burocrático que podría dejar fuera a las nuevas empresas. Los opositores al proyecto de ley han afirmado que incluso podría llevar a que los desarrolladores fueran enviados a prisión si su tecnología se utiliza para dañar a las personas, algo que Wiener ha negado enérgicamente.
Después de que el proyecto de ley fuera aprobado por un comité del Senado de California a principios de este mes, la directora de inteligencia artificial y política tecnológica emergente de Google, Alice Friend, escribió una carta al presidente argumentando que sus disposiciones “no son técnicamente factibles” y “castigarían a los desarrolladores incluso si han actuado de manera responsable”.
Wiener afirma que la ley es necesaria para prevenir los riesgos potenciales más extremos de la IA e infundir confianza en la tecnología. Su aprobación es urgente, dijo, a la luz de los compromisos republicanos de deshacer la orden ejecutiva de 2023 del presidente Biden, que utiliza la Ley de Producción de Defensa para exigir a las empresas de IA que compartan información sobre pruebas de seguridad con el gobierno.
“Esta acción de Trump hace que sea aún más importante que California actúe para promover una sólida innovación en inteligencia artificial”, dijo Wiener en X la semana pasada. El proyecto de ley ha convertido a Sacramento en el epicentro de la batalla por la regulación gubernamental de la IA. También pone de manifiesto los límites del entusiasmo de Silicon Valley por la supervisión gubernamental, incluso cuando líderes clave como el director ejecutivo de OpenAI, Sam Altman, instan públicamente a los responsables políticos a actuar.
Al imponer compromisos que antes eran voluntarios, el proyecto de ley de Wiener ha ido más allá de lo que los líderes tecnológicos están dispuestos a aceptar, dijo Nicol Turner Lee, director del Centro de Innovación Tecnológica de la Brookings Institution. “Esto sugiere que las grandes tecnológicas deben ser mucho más responsables”, dijo Lee, “y eso no fue bien recibido en la industria”.
Dylan Hoffman, director ejecutivo de TechNet para California y el suroeste, dijo que la carta de Friend, junto con las cartas de Meta y Microsoft anteriores, muestran el “peso y la importancia” que las empresas le dan a la medida. “Es un paso bastante extraordinario para ellos... salir de detrás de la asociación comercial y poner su nombre en la carta”.
Los portavoces de Google, OpenAI y Meta declinaron hacer comentarios. “Microsoft no ha tomado una posición sobre el proyecto de ley y seguirá apoyando la legislación federal como el principal medio para regular los temas que aborda”, dijo Robyn Hines, directora sénior de asuntos gubernamentales de Microsoft.
Incluso antes de que Wiener presentara su proyecto de ley en febrero, California ya se había consolidado como la legislatura tecnológica de facto del país. Tras años de debate en el Congreso, California aprobó en 2018 la ley de privacidad digital de mayor alcance del país. Y el Departamento de Vehículos Motorizados de California se ha convertido en un regulador clave de los vehículos autónomos.
En cuanto a la IA, la orden ejecutiva de Biden del pasado octubre marcó el esfuerzo más amplio de Washington para regular esta tecnología en auge. Pero los republicanos han anunciado planes para revocar la orden si Trump gana el 5 de noviembre, lo que dejaría a los estados la bandera de una regulación más estricta de la IA.
Según TechNet, una asociación comercial del sector cuyos miembros incluyen a OpenAI y Google, este año se han tramitado más de 450 proyectos de ley relacionados con la IA en sesiones legislativas de las capitales estatales de todo el país. En California hay más de 45 proyectos pendientes, aunque muchos han sido abandonados o están estancados en comités.
Pero el proyecto de ley de Wiener es el más destacado y controvertido de todos. Requeriría que cualquier empresa de inteligencia artificial que utilice una determinada cantidad de potencia informática pruebe si sus modelos podrían conllevar riesgos “catastróficos”, como ayudar a la gente a desarrollar armas químicas o biológicas, piratear infraestructuras clave o provocar cortes en las redes eléctricas. Las empresas presentarían informes de seguridad a una nueva oficina gubernamental, la División de Modelos Fronterizos (FMD), que tendría el poder de actualizar qué modelos de inteligencia artificial están cubiertos por la ley, algo que, según los opositores, podría generar aún más incertidumbre.
El proyecto de ley encarga al gobierno la creación de un sistema de computación en la nube para uso de investigadores y empresas emergentes, permitiéndoles desarrollar IA sin tener que depender del gasto masivo de las grandes empresas tecnológicas de la nube. Dan Hendrycks, fundador de la organización sin fines de lucro Center for AI Safety, fue consultor en la elaboración del proyecto de ley. El año pasado organizó una carta abierta firmada por destacados investigadores y ejecutivos de IA en la que se afirmaba que la IA podría ser tan peligrosa para la humanidad como la guerra nuclear y las pandemias.
Otros sostienen que esos riesgos son exagerados y que es poco probable que se materialicen durante años, si es que alguna vez lo hacen. Y los escépticos del proyecto de ley señalan que, incluso si esos riesgos fueran inminentes, no existe una forma estándar de comprobar su existencia. “El tamaño no es la métrica correcta”, dijo Oren Etzioni, investigador de inteligencia artificial y fundador de la organización sin fines de lucro TrueMedia.org, dedicada a la detección de deepfakes con inteligencia artificial. “Podríamos tener modelos que no se vean afectados por esto, pero que sean potencialmente mucho más peligrosos”.
El enfoque en los riesgos “catastróficos” también ha frustrado a algunos investigadores de IA que dicen que existen daños más tangibles de la IA, como inyectar sesgo racista y sexista en las herramientas tecnológicas y proporcionar otro lugar para que las empresas tecnológicas absorban los datos privados de las personas, cuestiones que otros proyectos de ley que se mueven en la legislatura de California pretenden abordar.
El enfoque del proyecto de ley en los riesgos catastróficos incluso llevó al jefe de inteligencia artificial de Meta, Yann LeCun, a calificar a Hendrycks de “gurú de culto apocalíptico”. “La idea de que tomar en serio los riesgos a escala social que plantea la IA convierte a alguien en un ‘gurú de una secta apocalíptica’ es absurda”, afirmó Hendrycks.
Recientemente, Hendrycks lanzó una empresa llamada Gray Swan, que crea software para evaluar la seguridad de los modelos de IA. El jueves, el sitio de noticias tecnológicas Pirate Wires publicó un comunicado con acusaciones de que la empresa representa un conflicto de intereses para Hendrycks, porque podría ganar negocios ayudando a las empresas a cumplir con la ley de IA si se aprueba.
“Los críticos me han acusado de estar involucrado en un elaborado plan para ganar dinero, cuando en realidad he pasado mi carrera profesional trabajando para promover cuestiones de seguridad de la IA”, dijo Hendrycks. “Revelé lo que es un conflicto de intereses teórico tan pronto como pude, y lo que pueda ganar con esta pequeña empresa emergente es una fracción minúscula de los intereses económicos que impulsan el comportamiento de quienes se oponen al proyecto de ley”.
Aunque Hendrycks ha sido criticado últimamente por algunos habitantes de Silicon Valley, los líderes de las empresas que se oponen a la ley han emitido advertencias similares sobre el peligro de los modelos de IA potentes. Los altos ejecutivos de IA de Google, Microsoft y OpenAI firmaron la carta que el grupo de Hendrycks distribuyó en mayo del año pasado advirtiendo que la humanidad se enfrentaba a un “riesgo de extinción a causa de la IA”. En una audiencia en el Congreso en el mismo mes, Altman dijo que la IA podría “causar un daño significativo al mundo”.
El año pasado, OpenAI también se unió a la start-up Anthropic, Google y otras empresas tecnológicas para crear un grupo industrial que desarrolle estándares de seguridad para modelos de IA nuevos y potentes. La semana pasada, la asociación de empresas tecnológicas ITI, cuyos miembros incluyen a Google y Meta, publicó un conjunto de mejores prácticas para “sistemas de IA de alto riesgo” que incluyen pruebas proactivas. Aun así, esas mismas empresas se resisten a la idea de incluir los compromisos en la ley.
En una carta del 20 de junio organizada por la incubadora de empresas emergentes Y Combinator, los fundadores se opusieron a que se aplicara un escrutinio adicional a los proyectos que utilizan una gran cantidad de potencia informática. “Es posible que esas métricas específicas no reflejen adecuadamente las capacidades o los riesgos asociados con los modelos futuros”, decía la carta. “Es crucial evitar una regulación excesiva de la IA”.
A los líderes de las empresas emergentes también les preocupa que el proyecto de ley dificulte a las empresas desarrollar y lanzar tecnología de “código abierto”, que está disponible para que cualquiera la use y la modifique. En una publicación de marzo en X, el ahora candidato republicano a vicepresidente JD Vance describió el código abierto como clave para construir modelos libres del sesgo político de OpenAI y la tecnología de Google.
Wiener modificó el proyecto de ley en respuesta a las críticas y comentarios de la industria, entre otras cosas estipulando que los desarrolladores de código abierto no son responsables de los problemas de seguridad que surjan cuando terceros modifiquen su tecnología. Los críticos de la industria dicen que esos ajustes no son suficientes. Mientras tanto, otros proyectos de ley que se están tramitando en la legislatura de California han atraído menos atención de la industria tecnológica.
La asambleísta Rebecca Bauer-Kahan, demócrata que representa una franja suburbana del este del Área de la Bahía, redactó varios proyectos de ley sobre inteligencia artificial que se están tramitando en la cámara, incluido uno que exige a las empresas que prueben los modelos de inteligencia artificial para detectar sesgos. Otro de sus proyectos de ley prohibiría a los desarrolladores utilizar la información personal de los niños para entrenar a sus modelos de inteligencia artificial sin el consentimiento de los padres, lo que podría desafiar la práctica de la industria tecnológica de extraer datos de entrenamiento de los sitios web.
Los proyectos de ley de IA presentados por otros legisladores de California requerirían que las empresas tecnológicas publiquen resúmenes que describan los datos utilizados para desarrollar modelos de IA, crear herramientas para detectar contenido generado por IA y aplicar marcas de agua digitales para hacer que el contenido generado por IA sea identificable, como algunas empresas, incluida Google, ya lo han intentado.
“Nos encantaría que el gobierno federal tomara la iniciativa en este asunto”, dijo Bauer-Kahan. “Pero en ausencia de ellos y de la aprobación de leyes como ésta, Sacramento siente la necesidad de dar un paso adelante”.