La investigadora Amparo Alonso (Vigo, 1961) describe la Inteligencia Artificial (IA) como una de las “grandes revoluciones” de nuestro tiempo y, a diferencia de los miedos y dudas que esta disciplina provoca en parte de la población, ella tiene claro que contribuye al progreso científico y que puede aportar numerosos beneficios. Pero también advierte que “debe ser regulada” a nivel internacional.
Alonso, catedrática de ciencias de la computación e Inteligencia Artificial en la Universidad de A Coruña y adjunta al rector para temas de IA, cuenta en esta entrevista con Infobae España que desde que comenzó a trabajar en este campo hace más de 30 años lo que le resulta especialmente fascinante es que el ser humano sea capaz de “reproducir algunas partes de la inteligencia a través de algoritmos complejos”.
Pregunta- ¿Qué es exactamente la Inteligencia Artificial? ¿Considera que es una revolución?
Respuesta- La IA es una aparte de la computación que tiene como objetivo poder crear programas o máquinas capaces de comportarse como un ser humano, es decir, que sean capaces de razonar, entender el lenguaje natural o lo que ven. Es una revolución importante en la historia, porque no solo está produciendo un cambio en las herramientas que manejamos, sino en otros ámbitos como la economía, el poder geopolítico o el empleo, a través de nuevas normas que estamos creando a medida que vamos avanzando en la implantación de la tecnología.
P- ¿Qué riesgos supone la IA?
R- Hemos visto que hay que evaluar las herramientas con cautela porque, al utilizar datos del mundo real, a veces se producen sesgos, ya sean de raza, sexo o religión, y puede haber problemas con la privacidad de las personas, la seguridad, o con algunos otros derechos fundamentales. La transparencia en este tipo de sistemas es importante, debemos saber quién es el responsable, cómo se guardan esos datos y cómo los utiliza el algoritmo.
Te puede interesar: Por qué la inteligencia artificial empeoraría la moderación de contenidos en línea
P- Es necesario, por tanto, regularla…
R- La Unión Europea ya empezó a trabajar en una propuesta de IA que respete los derechos humanos en 2018, con las líneas directrices que hizo el grupo de expertos de alto nivel en IA y que se publicaron en 2019. A partir de ahí, ha habido diferentes implicaciones de la UE, como son el Data Act [reglamento de datos] y el AI Act [ley basada en niveles de riesgo], y el objetivo es que se pueda publicar en enero de 2024. Por eso España se ha propuesto como campo de pruebas para tratar de buscar una guía y que las empresas de la Administración pública puedan comprobar que se cumple la ley.
Donde más se centra la legislación europea es en aquellas aplicaciones consideradas de alto riesgo, aquellas que tienen que ver con temas de recursos humanos o sanidad, entre otros, porque en las aplicaciones consideradas de bajo y medio riesgo llevarán consigo una especie de sello de calidad recomendado y el aviso de que estás interactuando con una máquina y no con una persona, si bien algunas estarán directamente prohibidas. En ese sentido, la creación de la Agencia Española de Supervisión de Inteligencia Artificial en A Coruña, que será la primera en Europa, servirá para supervisar esas aplicaciones de IA de alto riesgo.
P- ¿Cuáles son las oportunidades o beneficios que ofrece la IA? ¿Son más que los riesgos?
R- Son más las oportunidades que los riesgos. Una de las aplicaciones más exitosas en los últimos años, por mencionar una, es Alfha Fold, una herramienta que fue liberada por Google DeepMind, que ha contribuido al progreso científico con el mapa proteómico más completo del ser humano hasta la fecha, ya que permite ver cómo se pliegan las proteínas [y entender así cuál es su función]. Esto hace que podamos avanzar hacia una medicina mucho más predictiva y preventiva.
En temas de aprendizaje, por ejemplo, también podemos ver cómo cada uno de nuestros alumnos puede aprender de manera más individualizada y poder atenderles mejor, lo cual sería imposible de otra manera porque hay muchos estudiantes y todos con diferentes capacidades. La IA también puede ayudar en la lucha contra el cambio climático, reducir pesticidas y fertilizantes u optimizar la producción industrial, entre otras ventajas.
P- ¿Es lógico que la gente tenga miedo a que los robots ocupen su puesto de trabajo?
R- Es lógico que haya gente que tenga miedo en cuanto al trabajo porque se puede destruir. Siempre que ha habido una revolución, como vimos en la industrial, hay trabajos que desaparecen, pero también surgen otros nuevos. Todo indica a que en este caso, la creación de empleo será mayor que la destrucción que se produzca, no solo por la IA, sino por la automatización en general. Va a haber trabajos nuevos por los que tendremos que preocuparnos y tomar medias para que eso se puede prever de alguna forma y se tomen decisiones al respecto.
Se prevé que cambiará nuestra forma de trabajar, de modo que las tareas que realizamos de forma más rutinaria las pueda hacer una máquina más eficientemente, mientras nosotros tendremos que enfocarlo de otra manera. Pero pongo un ejemplo: hace 60 años los médicos apenas tenían instrumental y hoy en día tienen a su disposición un montón de pruebas basadas en imágenes, en Inteligencia Artificial, se pueden practicar cirugías mucho más precisas con el robot Da Vinci y nada de eso ha hecho que la profesión desaparezca, sino todo lo contrario.
Te puede interesar: Una nueva revolución tecnológica: la inteligencia artificial llega para quedarse y se abre el debate
P- A finales de marzo más de 1.000 expertos firmaron un documento para pedir una moratoria de seis meses en el desarrollo de inteligencias artificiales. ¿Debería preocuparnos?
R- Creo que, en principio, la investigación no se debería parar, porque impides que la propia tecnología sea la que remedie los problemas de la tecnología. Esta petición [por parte de los expertos] podría responder a algún tipo de interés, por eso es importante que nos ocupemos de regular y es importante hacerlo de una manera que sea conveniente para todos, no solo para los intereses de las grandes empresas tecnológicas.
P- De hecho, el pasado mes de mayo el propio creador del ChatGPT, Sam Altman, pidió al Congreso de EEUU que regule el desarrollo y los usos de la Inteligencia Artificial...
R- Altman ha hecho una importante inversión. No hay que olvidar que logró en apenas unos días lo que otras plataformas consiguieron en meses, y ahí hay intereses económicos. Hay que regular no solo en base a temas económicos, sino para todos. Las empresas deben tener su parte de responsabilidad, deben regular también para testar sus productos y que cuando salgan al mercado sean serios y seguros.
Seguir leyendo: