La Unión Europea aprobó la primera ley en el Mundo para regular la Inteligencia Artificial: así funcionará

El AI Act busca controlar las capacidades avanzadas de la IA generativa y los riesgos relacionados con el uso de material protegido por derechos de autor

Guardar
La Unión Europea dio luz verde a la primera ley mundial para regular la inteligencia artificial. (Europa Press/Budrul Chukrut)
La Unión Europea dio luz verde a la primera ley mundial para regular la inteligencia artificial. (Europa Press/Budrul Chukrut)

La Unión Europea (UE) finalmente dio luz verde a la primera ley importante a nivel mundial para la regulación de la inteligencia artificial (IA). Se trata del AI Act, una normativa pionera que establece reglas comprensivas sobre la tecnología de IA.

El lanzamiento de ChatGPT por OpenAI puso de manifiesto la falta de detalle en la legislación existente para abordar las capacidades avanzadas de la IA generativa emergente y los riesgos relacionados con el uso de material protegido por derechos de autor. Esto llevó a los funcionarios a reconocer la necesidad de una normativa más específica.

“La adopción del AI Act es un hito significativo para la Unión Europea”, afirmó Mathieu Michel, secretario de Estado belga para la digitalización. “Con el AI Act, Europa enfatiza la importancia de la confianza, la transparencia y la responsabilidad cuando se trata de nuevas tecnologías, asegurando al mismo tiempo que esta tecnología en rápida evolución pueda florecer y estimular la innovación europea”, agregó Michel en una declaración citada por CNBC el martes 21 de mayo de 2024.

El AI Act establece reglas estrictas para la tecnología de IA, enfocándose en la transparencia y la responsabilidad. (Imagen Ilustrativa Infobae)
El AI Act establece reglas estrictas para la tecnología de IA, enfocándose en la transparencia y la responsabilidad. (Imagen Ilustrativa Infobae)

El AI Act utiliza un enfoque basado en riesgos para la inteligencia artificial, lo que significa que diferentes aplicaciones de la tecnología son tratadas de manera distinta, según las amenazas percibidas que potencialmente representan para la sociedad.

La ley prohíbe aplicaciones de IA que se consideran “inaceptables” en cuanto a su nivel de riesgo, incluyendo sistemas de “puntuación social” que clasifican a los ciudadanos en función de la agregación y el análisis de sus datos, la policía predictiva y el reconocimiento emocional en el lugar de trabajo y las escuelas.

“Las restricciones impuestas por el AI Act sobre los sistemas de IA generativa son estrictas”, destacó Dessi Savova, socio en Clifford Chance. Estas restricciones incluyen requisitos para respetar la ley de derechos de autor de la UE, divulgaciones de transparencia sobre cómo se entrenan los modelos, pruebas rutinarias y protecciones adecuadas de ciberseguridad.

Las restricciones del AI Act incluyen requisitos de derechos de autor y transparencia en el entrenamiento de modelos de IA. (DPA /Fred Marvaux)
Las restricciones del AI Act incluyen requisitos de derechos de autor y transparencia en el entrenamiento de modelos de IA. (DPA /Fred Marvaux)

La Comisión Europea tendrá el poder de imponer multas a las empresas que violen el AI Act de hasta 38 millones de dólares o el 7% de sus ingresos anuales globales, lo que sea mayor.

Según Matthew Holman, socio en el bufete de abogados Cripps, las reglas tendrán grandes implicaciones para cualquier persona o entidad que desarrolle, cree, use, o revenda IA en la UE, con un énfasis particular en las grandes empresas tecnológicas estadounidenses. “El AI Act de la UE es como ninguna otra ley en el mundo”, dijo Holman.

Qué contempla y cuáles son los plazos

Aunque se alcanzó un acuerdo sobre el AI Act, aún falta camino por recorrer para su implementación y ejecución efectiva. Las restricciones a los sistemas de propósito general no empezarán hasta 12 meses después de la entrada en vigor de la Ley de IA, según publicó CNBC.

El AI Act prohíbe aplicaciones de IA consideradas "inaceptables" por su nivel de riesgo. (Imagen Ilustrativa Infobae)
El AI Act prohíbe aplicaciones de IA consideradas "inaceptables" por su nivel de riesgo. (Imagen Ilustrativa Infobae)

Mientras que cualquier sistema de IA generativa actualmente disponible comercialmente, como ChatGPT, Gemini de Google, y Copilot de Microsoft, tendrá un “período de transición” de 36 meses desde la entrada en vigor del AI Act para cumplir con la legislación.

Las aplicaciones de IA de alto riesgo también están contempladas en la nueva ley. Estas incluyen vehículos autónomos y dispositivos médicos, los cuales se evaluarán por los riesgos que representan para la salud, la seguridad y los derechos fundamentales de los ciudadanos. Además, se evaluarán aplicaciones de IA en servicios financieros y educación, donde existe el riesgo de sesgo incorporado en los algoritmos de IA.

Por último, Michel enfatizó que con esta ley, Europa reafirma la necesidad de que la tecnología de IA progrese de una manera que sea beneficiosa y ética para todos. Este compromiso europeo con la transparencia y responsabilidad en IA está diseñado no solo para regular, sino también para incentivar innovaciones responsables en el campo.

Guardar