A Coruña, 7 oct (EFECOM).- El director de la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia), Ignacio Belda, ha señalado que el papel del organismo que dirige "no es investigar", sino "supervisar el mercado" y estar "atentos" a cuando una empresa o administración pública "incumpla el reglamento", además de "expedir certificados".
Así lo ha expresado Belda este lunes en el Paraninfo de la Universidad de A Coruña (UCD), en el marco de una jornada de debate en torno al talento joven y el impacto que tendrá la inteligencia artificial en su desarrollo profesional.
Según ha dicho, mucha gente en España piensa que la Aesia es "un centro de investigación o un centro tecnológico", por lo que ha querido dejar claro que "su labor es supervisar".
Belda ha conversado con los alumnos de la UCD en una ponencia participativa titulada '¿AI que poner límites?', en la que se ha referido al Reglamento en materia de Inteligencia Artificial de la Unión Europea, aprobado este verano.
Ha afirmado que la regulación a veces puede percibirse como negativa por parte de las empresas, debido a la desventaja internacional, la limitación en la innovación, la fuga de talento o las posibles sanciones económicas, que pueden superar los 35 millones de euros.
Belda ha dicho que uno de los principios de la nueva regulación, que se irá aplicando de forma paulatina, es que "un humano solo puede ser juzgado por otro humano" y además que no se regulan las tecnologías "sino las aplicaciones" de dichas tecnologías.
En su charla, se ha referido a aplicaciones de riesgo inaceptable, y por lo tanto prohibidas por la legislación, las de riesgo alto, las de riesgo medio y las de riesgo bajo.
Entre las aplicaciones prohibidas, están "el uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público", salvo en determinados casos; el uso de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión; o el uso de sistemas de IA para inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos.
En cuanto a las aplicaciones de riesgo, alto, ha afirmado que están relacionadas con la vulneración de derechos humanos o con "poner una vida en riesgo". EFECOM
(foto)