La regulación de la inteligencia artificial (IA) en Estados Unidos está generando un amplio debate entre legisladores, expertos y líderes del sector tecnológico. Mientras que algunos estados han avanzado en la implementación de leyes específicas, como el Colorado AI Act, el país aún carece de un marco federal integral que unifique las normativas en torno a la IA y la privacidad de datos, según CNBC. Esta situación plantea desafíos para la industria, que teme que regulaciones desarticuladas puedan frenar la innovación y debilitar el liderazgo global de Estados Unidos en tecnología.
En 2024, 45 estados y territorios, incluidos Washington D.C., Puerto Rico y las Islas Vírgenes, han introducido proyectos de ley sobre IA, destacando la creciente preocupación por los riesgos de esta tecnología. Sin embargo, la falta de coordinación federal ha llevado a una fragmentación en las normativas estatales. Según CNBC, esta tendencia podría dificultar la implementación de estándares uniformes, afectando no solo a los desarrolladores de IA, sino también a las industrias que dependen de estas tecnologías.
California, como epicentro de la innovación tecnológica, enfrenta tensiones particulares en este debate. Aunque el gobernador Gavin Newsom vetó un proyecto de ley destinado a regular los sistemas de IA más avanzados, el estado aprobó una ley que exige transparencia en los sistemas generativos de IA. Los críticos argumentan que un enfoque regulatorio excesivo podría llevar a las empresas tecnológicas a buscar otros destinos más flexibles, lo que impactaría la posición del estado como líder en tecnología.
Proyectos de ley sobre inteligencia artificial en Estados Unidos
En septiembre de 2024, el gobernador de California vetó un proyecto de ley que buscaba supervisar modelos avanzados de IA desarrollados con presupuestos de entrenamiento superiores a USD 100 millones. Según CNBC, la medida fue impulsada por el senador demócrata Scott Wiener, quien defendió la necesidad de regular los riesgos asociados con modelos de gran escala. Sin embargo, organizaciones como la Alianza de la IA alertaron que este tipo de regulaciones podría desacelerar la innovación y reducir la competitividad económica de California.
Por su parte, Colorado se convirtió en el primer estado en aprobar una ley específica para la IA. El Colorado AI Act, firmado en 2024, exige a los desarrolladores de sistemas de alto riesgo que prevengan la discriminación algorítmica. Según CNBC, esta legislación marcó un hito en la regulación estatal al abordar de forma directa los riesgos éticos de la IA, incluso antes de la entrada en vigor del AI Act de la Unión Europea.
Ausencia de regulación federal sobre inteligencia artificial
Estados Unidos no ha implementado un marco federal integral que regule la privacidad de datos o el uso de tecnologías de IA. Según el Future of Privacy Forum, los riesgos de privacidad asociados con la IA podrían abordarse mediante un régimen de protección de datos similar a la GDPR de la Unión Europea. Sin embargo, propuestas como el American Data Privacy and Protection Act han sido bloqueadas por desacuerdos políticos, según CNBC.
En este contexto, la Casa Blanca publicó un “Blueprint for an AI Bill of Rights”, un conjunto de principios no vinculantes que busca orientar el uso ético de la IA. Entre estos principios se incluyen la protección contra la discriminación algorítmica, la privacidad de datos y la transparencia en los sistemas automatizados. No obstante, según CNBC, la llegada de un nuevo gobierno podría modificar este enfoque, inclinándose hacia regulaciones más favorables para las empresas tecnológicas.
Impacto en Silicon Valley y la industria tecnológica
California, hogar de Silicon Valley, enfrenta el desafío de equilibrar su estatus como líder en innovación tecnológica con la necesidad de regular el desarrollo y uso de la inteligencia artificial. Según CNBC, líderes de la industria como Yann LeCun, director científico de IA en Meta, han expresado preocupación de que regulaciones excesivas podrían sofocar la creatividad en el sector.
Otros expertos, como Jonas Jacobi, CEO de ValidMind, sostienen que la regulación es necesaria pero debe ser “de sentido común” para evitar frenar el avance tecnológico. Mohamed Elgendy, CEO de Kolena, enfatizó en CNBC la importancia de diseñar normativas específicas que aborden los riesgos del uso malintencionado de la IA, en lugar de centrarse únicamente en la capacidad técnica de los modelos.
Fragmentación regulatoria en Estados Unidos
La falta de un marco unificado ha generado fragmentación en las normativas estatales sobre inteligencia artificial, lo que podría dificultar el desarrollo de estándares aplicables a nivel nacional. Según CNBC, legisladores como Robert Rodríguez, de Colorado, han abogado por un enfoque más cohesionado para evitar las inconsistencias que ya afectan la privacidad de datos en Estados Unidos.
Compañías como Kolena están trabajando con reguladores para desarrollar directrices que equilibren innovación y seguridad. Según CNBC, estos estándares están diseñados para ser aplicables en sectores clave como el financiero y el comercio electrónico, ofreciendo claridad a los desarrolladores frente a la ausencia de una regulación federal clara.
Empresas tecnológicas frente a las leyes estatales de IA
A pesar de las preocupaciones por la regulación, el Future of Privacy Forum señala que es improbable que California pierda su atractivo como centro tecnológico global en el corto plazo. No obstante, algunas empresas han advertido que podrían trasladarse a otros estados o incluso países si las normativas se vuelven demasiado restrictivas, según CNBC.
Elgendy, de Kolena, explicó que su empresa colabora con diferentes sectores para establecer estándares que equilibren innovación y seguridad. Según CNBC, estos esfuerzos buscan mitigar los efectos de una regulación fragmentada y ofrecer una guía clara tanto para los reguladores como para las empresas tecnológicas.