El Parlamento Europeo dio el primer paso para regular las herramientas de inteligencia artificial en la región

El texto se presentará al pleno parlamentario en junio para su adopción y, a partir de entonces, se iniciarán las negociaciones con los Estados miembros del grupo a fin de acordar una ley definitiva

Guardar
El Parlamento Europeo dio el primer paso para regular las herramientas de inteligencia artificial en la UE. (AP)
El Parlamento Europeo dio el primer paso para regular las herramientas de inteligencia artificial en la UE. (AP)

Los legisladores del Parlamento Europeo dieron este jueves un primer paso hacia la adopción de una ley que regule las herramientas de la Inteligencia Artificial (IA), como el ChatGPT.

En una votación clave en comisiones, los eurodiputados aprobaron por amplia mayoría la posición que pide limitar los excesos de la IA en la Unión Europea (UE). El texto se presentará al pleno parlamentario en junio para su adopción y, a partir de entonces, se iniciarán las negociaciones con los Estados miembros de la UE a fin de acordar una ley definitiva.

Son una serie de normas que se incluyeron en la ley de inteligencia artificial que se está negociando en Bruselas y que la comisión parlamentaria aprobó por 84 votos a favor, siete en contra y doce abstenciones.

De incorporarse íntegras estas disposiciones a la ley final, los desarrolladores de estos sistemas tecnológicos que quieran introducirlos en el mercado tendrán que demostrar que han reducido los riesgos que puedan generar a la salud, a los derechos fundamentales y al sistema democrático y someterse además al análisis de expertos independientes.

Los desarrolladores de estos sistemas tecnológicos que quieran introducirlos en el mercado tendrán que demostrar que han reducido los riesgos que puedan generar a la salud, a los derechos fundamentales y al sistema democrático y someterse además al análisis de expertos independientes. (Freepik)
Los desarrolladores de estos sistemas tecnológicos que quieran introducirlos en el mercado tendrán que demostrar que han reducido los riesgos que puedan generar a la salud, a los derechos fundamentales y al sistema democrático y someterse además al análisis de expertos independientes. (Freepik)

Además, los usuarios de sistemas de inteligencia artificial que generen o manipulen videos, imágenes o sonidos que puedan inducir erróneamente a otras personas a pensar que son auténticos o verídicos deberán informar al resto de ciudadanos que el contenido es falso.

Asimismo, los creadores de la tecnología tendrán que publicar “un resumen suficientemente detallado” sobre los datos protegidos con derechos de autor que utilizan para entrenar a los sistemas de inteligencia artificial.

Asimismo, las herramientas se tendrán que diseñar de tal forma que a lo largo de su vida útil tengan “niveles apropiados” de rendimiento, previsibilidad, interpretabilidad, corregibilidad, seguridad y ciberseguridad.

Con estas medidas, actuamos fuertemente ante estos retos”, afirmó el ponente de la ley, el eurodiputado socialdemócrata italiano Brando Benifei.

Más allá de prever reglas específicas para estos sistemas autónomos de generación de contenido, la ley de inteligencia artificial prohíbe los sistemas de vigilancia masiva en tiempo real en espacios públicos -salvo para prevenir delitos y localizar a posibles víctimas- y veta los modelos que se sirvan de técnicas subliminales para alterar de manera “sustancial” el comportamiento de una persona, sin que sea consciente de ello.

La ley de inteligencia artificial prohíbe los sistemas de vigilancia masiva en tiempo real en espacios públicos -salvo para prevenir delitos y localizar a posibles víctimas- y veta los modelos que se sirvan de técnicas subliminales para alterar de manera “sustancial” el comportamiento de una persona, sin que sea consciente de ello.(Unsplash)
La ley de inteligencia artificial prohíbe los sistemas de vigilancia masiva en tiempo real en espacios públicos -salvo para prevenir delitos y localizar a posibles víctimas- y veta los modelos que se sirvan de técnicas subliminales para alterar de manera “sustancial” el comportamiento de una persona, sin que sea consciente de ello.(Unsplash)

Además, califica de alto riesgo a toda una serie de sistemas de inteligencia artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la UE.

Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona o los que emplee la policía de control de fronteras para controlar, vigilar o procesar datos para predicción de movimientos migratorios.

La Eurocámara quiere que las empresas que incumplan la normativa puedan pagar una multa de hasta el 7 % de su facturación anual mundial.

Está previsto que el pleno del Parlamento Europeo confirme su posición negociadora para esta norma el próximo mes de junio y la Eurocámara tendrá que negociar después con la Comisión Europea y el Consejo de la UE el texto definitivo de la ley de inteligencia artificial.

(Con información de AFP y EFE)

Seguir leyendo:

Guardar