La Unión Europea analiza prohibir el uso de inteligencia artificial para la vigilancia masiva

Se busca regular los usos de este tipo de tecnología para evitar abusos, según un borrador de la iniciativa que se presentaría oficialmente la semana próxima

Guardar
En el marco de la
En el marco de la nueva regulación los estados miembros de la UE deberán constituir un consejo asesor común, integrado por expertos, cuya función sería validar los sistemas de IA considerados de alto riesgo

La Unión Europea (UE) prepara un borrador para regular los usos permitidos de los mecanismos de inteligencia artificial (IA), y en él establece prohibiciones para usos como los sistemas de vigilancia masiva y las tecnologías que valoran a las personas de forma predictiva. Además, la idea es que los sistemas de alto riesgo pasen a tener una mayor supervisión.

Así surge de un documento al que tuvo acceso el sitio Politico y que luego se viralizó. Se estima que el anuncio oficial se haría la semana próxima.

En el marco de la nueva regulación los estados miembros de la UE deberán constituir un consejo asesor común, integrado por expertos, cuya función sería validar los sistemas de IA considerados de alto riesgo.

El borrador también establece que las compañías que comercialicen sistemas de IA prohibidos en la UE, aunque tengan su base en otras partes del mundo, podrán enfrentarse a multas con topes de hasta el 4 por ciento de sus ingresos globales, una medida que está vigente en el marco del Reglamento General de Protección de Datos (RGPD), que entró en vigencia en 2018.

Según una copia a la que tuvo acceso The Verge, entre los tipos de sistemas de IA prohibidos por la UE se incluirán aquellos dedicados a la “vigilancia indiscriminada” de forma masiva, tanto los que rastrean personas en entornos físicos como los que utilizan o extraen datos agregados para otros sistemas. Este tipo de sistemas es el que suele usar el régimen chino con la ayuda de compañías como Huawei.

El documento de la UE
El documento de la UE menciona a los sistemas de reconocimiento facial en espacios públicos, para los que pasará a exigirse una autorización especial

También se analiza vetar las tecnologías de IA que hacen valoraciones sociales de las personas, y que por ejemplo realizan estimaciones de su fiabilidad en función de su comportamiento o que predicen su personalidad.

Asimismo, la UE establece en su borrador varios tipos de IA que pasan a estar sujetos a una mayor regulación, como es el caso de los sistemas considerados de “alto riesgo”, entre los que se enmarcan todos ellos que puedan suponer un riesgo para la seguridad física, como los sistemas de conducción automática, o los que pueden afectar a la vida de las personas, como la IA para contratar empleados, tomar decisiones judiciales o conceder créditos financieros.

En estos casos, los sistemas tendrán que ser revisados y aprobados por los consejos asesores de expertos en IA antes de entrar en funcionamiento, asegurando que dispongan de supervisión humana y que los sistemas no se hayan entrenado con datos sesgados, según contempla el borrador.

De estar tarea se encargará un nuevo organismo, denominado Consejo Europeo de Inteligencia Artificial, que se espera que esté integrado por expertos en IA de todos los países miembros de la UE, que decidirán qué sistemas se consideran de alto riesgo y posibles cambios de regulación.

El documento de la UE menciona también a los sistemas de reconocimiento facial en espacios públicos, para los que pasará a exigirse una autorización especial, mientras que también se requerirá que los sistemas de IA se identifiquen cuando las personas interactúan con ellos, salvos en los casos donde resulte “obvio por el contexto de uso”.

Cabe señalar que todo lo mencionado figura en un borrador y que es posible que se generen cambios antes de su anuncio oficial que se espera sea el 21 de abril. Además, una vez realizada la propuesta, ésta debe ser analizada por los representantes de la UE, y una vez aprobada la normativa se implementará como regulación marco y sus aplicaciones en cada estado tendrán variaciones dentro del contexto estipulado por la normativa.

SEGUIR LEYENDO:

Guardar