La necesidad de que la inteligencia artificial (IA) sea regulada por razones éticas y responsables es una recomendación de varios expertos en esta materia, dado que esta tecnología ha experimentado un crecimiento exponencial y ha generado inquietud y dudas sobre su uso.
Así lo han defendido varios expertos en un foro organizado por la Universidad Internacional de La Rioja (UNIR), del que ha informado este jueves en una nota.
Juan Ignacio Rouyet, profesor del Máster Universitario en Gemelos Digitales de UNIR, ha asegurado que los usos de la IA han generado una creciente preocupación social y política por lograr que no sobrepase unos límites éticos.
El reconocimiento facial, la vigilancia continua, los sistemas de chat, el arte en campos como la fotografía y la literatura y la predicción del comportamiento social han planteado “cuestiones éticas y morales que deben abordarse de manera adecuada”, ha añadido.
“La regulación de la IA es posible y necesaria en nuestra sociedad”, ha precisado, y “lograrlo y que respete la ética es un desafío que requiere la colaboración de Gobiernos, empresas, expertos y la sociedad en su conjunto”, pero es “un paso crucial para construir un futuro tecnológico responsable y equitativo”.
Por su parte, el vicepresidente del Consejo General de Colegios Oficiales de Ingeniería en Informática, Juan Pablo Peñarrubia, ha comentado que en cualquier actividad económica o social se tiende a una regulación legal normativa de carácter esencial obligatoria y “así debe ser también en el caso de la IA”.
Entre julio y noviembre habrá más de 127 reuniones en la Comisión Europea para trabajar sobre la IA y se estima que en 2024 se puede aprobar la primera ley europea al respecto.
Te puede interesar: “La inteligencia artificial revoluciona el cine (y nuestra mirada)”
Para Peñarrubia, Estados Unidos y Europa se están preparando para crear leyes que ayuden a los avances económicos, al mismo tiempo que se analizan los riesgos de la IA y se protegen los derechos fundamentales para “garantizar la seguridad y la transparencia en el uso de estas tecnologías”.
Ha explicado que la visión de Estados Unidos es “una aproximación de economía y liderazgo, con una esencia similar a la de la irrupción de la tecnología informática, con un enfoque económico y liberal, pero con un ingrediente nuevo, la regulación de los riesgos”.
El ámbito europeo tiene una diferencia principal en su visión de la IA respecto a Estados Unidos, en referencia a la ética a nivel regulatorio.
La fiabilidad de la IA en Europa, ha dicho Rouyet, se centra en tres directrices: debe ser lícita, es decir, que cumpla con la normativa vigente de las leyes y reglamentos; ética, que garantice el cumplimiento de los principios y valores; y robusta, que no cause daños involuntarios y que tome en cuenta sus consecuencias desde el punto de vista técnico y social.
Peñarrubia ha insistido en que es importante la definición de IA porque puede tener regulación y responsabilidades distintas, por lo que “hay que concretarlo a nivel jurídico y que se pueda extender a cualquier dispositivo”, dado que “si no se define, puede quedar un vacío legal en su aplicación no solo a la informática tradicional, sino algorítmica”.
Fuente: EFE.
Seguir leyendo