La mexicana Gabriela Ramos, subdirectora de la Unesco, la agencia de Naciones Unidas para la Educación, la Ciencia y la Cultura y responsable global de Inteligencia Artificial, tiene claro que a esta tecnología sí hay que tenerle miedo sin bases éticas. Según afirma, aunque puede hacer que los trabajos sean mucho más fáciles, más productivos y más rápidos, también puede provocar discriminación, desinformación y brechas digitales. Por eso destaca la importancia de que este organismo creara en 2021 la Recomendación sobre la Ética en la Inteligencia Artificial (IA), un documento que, pese a no ser vinculante, ha sido firmado por 193 países. “Y cada vez son más los que lo están implementando”. Se trata de unas pautas de actuación en asuntos como las tecnologías de espionaje masivo o el abuso de los sesgos cognitivos que pretenden “servir como base para poner los sistemas de IA al servicio de las sociedades” y prevenir daños.
La experta, que esta semana ha participado en la Cumbre de Altas Autoridades sobre Inteligencia Artificial en América Latina y el Caribe que se ha celebrado en Uruguay, destaca en esta entrevista con Infobae España el trabajo que España está llevando a cabo con respecto a esta tecnología.
Pregunta: Actualmente no existe un marco global que regule la Inteligencia Artificial. ¿Debería preocuparnos?
Respuesta: Tenemos muchas normativas, y creo que la más global es la que estamos implementando en la Unesco, que es la Recomendación sobre la Ética en la Inteligencia Artificial, un acuerdo global, no vinculante, que firmaron [en 2021] 194 países y que están implementando. Por eso creo que tendríamos que atenuar un poco esa aseveración de que no hay un marco global. Ha cambiado de una percepción de que las tecnologías son agentes exógenos que nos caen y que no podemos hacer nada más que adaptarnos hacia una proposición mucho más activa y de liderazgo, en donde somos nosotros, los gobiernos, las empresas, los ciudadanos quienes decidimos cómo queremos que la Inteligencia Artificial se desarrolle y se use. Se trata de una herramienta que puede tener usos duales, que te puede ayudar tanto a tener mejores diagnósticos en el sistema de salud como puede ser utilizada para un espionaje masivo. Por tanto, mientras más capacidades tiene esta tecnología, es evidente que más cuidado debemos tener en nuestros marcos legales y jurídicos.
P: La Inteligencia Artificial tiene efectivamente numerosos beneficios, como automatizar y agilizar tareas, pero también conlleva riesgos importantes, como el espionaje masivo que ha mencionado. ¿Qué otros riesgos destacaría?
R: Esta es una tecnología de muy alto impacto que tiene incidencia en todos los rubros. Si la utilizas en el mercado laboral y te enfocas demasiado en la automatización, los trabajos van a desaparecer. También hemos visto en la actualidad cómo tiene una capacidad de información importante para incidir o para manipular procesos electorales. También hay que tener en cuenta quién desarrolla estas tecnologías, porque solo hay un 22% de mujeres en los sectores que conciernen estos desarrollos, y la mayoría de ellos se hacen en inglés, por lo que también ahí estamos perdiendo una diversidad, no solo en términos de lenguaje. Teniendo en cuenta toda esa discriminación, falta de representatividad de género y de los distintos grupos raciales, si esta tecnología cae en manos inadecuadas puede ser utilizada de una manera muy nociva. Por eso, también desde Unesco estamos ahora desarrollando una recomendación para la ética de la neurotecnología.
P: De ahí la importancia de regular...
R: Ese es el punto más importante, porque hemos estado en una narrativa de libre mercado donde parece que el mercado es el único que tiene sabiduría y, si los gobiernos intervienen, entonces van a coartar la innovación y nadie se va a beneficiar, y esa es una falsa narrativa. Lo que justamente estamos haciendo estos días en Uruguay [en la Cumbre Ministerial y de Altas Autoridades sobre la Ética de la Inteligencia Artificial] con los países latinoamericanos, en el programa de vanguardia, es asumir la responsabilidad de los Estados en términos de asegurar que sigue existiendo el Estado de Derecho y que aseguren la transparencia y la rendición de cuentas. No solo son importantes los riesgos, lo que tenemos que asegurarnos es de que haya desarrollos que nos convienen, que nos ayudan. Estas tecnologías tienen que estar acopladas a las necesidades y a las prioridades definidas por los países y por los individuos. Ese es el punto fundamental, y creo que ya hay un cambio, porque los gobiernos están asumiendo su responsabilidad histórica.
P: En agosto entró en vigor la ley aprobada por la Unión Europea para regular la Inteligencia Artificial, con el objetivo de fomentar la innovación y limitar los posibles abusos de esta tecnología, un reglamento que fija unas obligaciones y que se va a aplicar, sobre todo, a partir de 2026, aunque algunas disposiciones serán vinculantes el año que viene. ¿Cómo valora esta ley? ¿Se queda corta?
R: Es un paso muy positivo el que ha dado la Unión Europea. Alguien tenía que atreverse, y el enfoque que escogieron que es de control de riesgos, que es el más básico y que tiene que ver con que la tecnología debe someterse a distintas supervisiones para proteger la innovación y que haya una regulación. Creo que fue positivo, porque están liderando este cambio de percepción a una cuestión muy sencilla de decir qué es lo que tienen que actualizar en su herramienta de políticas públicas para poder incidir en estos desarrollos, y creo que lo están haciendo muy bien. El punto fundamental es que las instituciones deben estar al cargo de esto. Si Europa ha creado la Oficina de Inteligencia Artificial, así como Estados Unidos también cuenta con un instituto sobre inteligencia artificial, todos los demás tenemos que seguir esos pasos.
P: España también aprobó en mayo una estrategia cuyo objetivo es facilitar la aplicación de la Inteligencia Artificial en el sector público y privado y fomentar la transparencia. ¿Cómo ve a España en ese sentido?
R: España ha sido líder. El Parlamento Europeo aprobó en marzo de este año el Reglamento de Inteligencia Artificial de la UE durante la presidencia española [del Consejo de la UE] y nadie creía que iba a suceder. Pero ahí España tuvo unos funcionarios espectaculares, tanto Carmen Díaz como Mayte Ledo, y lideró la negociación, que no fue sencilla.
P: La Inteligencia Artificial supone un impulso en la productividad de los países, pero eso requiere innovación e inversión, y en España casi el 90% del tejido empresarial está compuesto por pequeñas y medianas empresas, por lo que les resultará más complicado poder invertir en esta tecnología.
R: Creo que ahora tenemos que hacer un esfuerzo mayor para que precisamente las pequeñas y medianas empresas no solo introduzcan en sus procesos estas tecnologías para ser más eficientes y competitivas, sino que también ellas mismas adquieran las competencias y atraigan los talentos, tengan analistas de datos y puedan automatizar los procesos que se requieran de acuerdo a sus intereses. Hay que tener en cuenta que la Inteligencia Artificial no solo la deben tener las grandes empresas, sino también las startups, y para eso hay programas de apoyo a la industria.