El Foro Económico Mundial dio a conocer los resultados de la Encuesta de Percepción de Riesgos Globales (GRPS, por sus siglas en inglés), en la que líderes de distintos sectores señalan los desafíos anticipados para el período 2024-2026. En este ejercicio participan expertos de la academia, industria, gobierno, comunidad internacional y sociedad civil, con el objetivo de proporcionar una visión completa de los riesgos que impactan en nuestro mundo.
A través de la GRPS, el Foro Económico Mundial elabora el Informe de Riesgos Globales, una herramienta que actúa como guía para la toma de decisiones y contribuye a la formulación de estrategias efectivas para abordar los desafíos más apremiantes de nuestra era.
Los riesgos identificados se agrupan en cinco categorías principales: económicos, ambientales, geopolíticos, sociales y tecnológicos, abarcando una amplia gama de posibles impactos en las sociedades. En este artículo, nos enfocaremos específicamente en los riesgos asociados a la Inteligencia Artificial, dada su evolución acelerada y los significativos desafíos que plantea, y en cómo la educación puede ser quien le dé un uso consciente y eficaz.
Riesgos de la inteligencia artificial según el Foro Económico Mundial
1. Resultados adversos de las tecnologías de inteligencia artificial. Implica todas las posibles consecuencias no deseadas derivadas de la implementación de tecnologías de IA, con potenciales ramificaciones negativas a nivel social y económico.
2. Desinformación y manipulación de información. Representa la amenaza de la proliferación de información falsa o manipulada mediante algoritmos de IA, afectando la percepción pública y la toma de decisiones informada.
3. Pérdida de empleos y desplazamiento laboral. Relacionado con el riesgo de automatización y la posible pérdida de empleos tradicionales, generando desafíos significativos en el mercado laboral.
4. Uso criminal y ciberataques. Tiene que ver con la posibilidad de que actores malintencionados empleen la inteligencia artificial para llevar a cabo actividades delictivas o realizar ciberataques con consecuencias perjudiciales.
5. Sesgo y discriminación. Se refiere al desafío de abordar sesgos inherentes en los algoritmos de IA, que podrían resultar en discriminación y disparidades injustas en la aplicación de tecnologías.
6. Uso en la toma de decisiones críticas por parte de organizaciones y estados. Involucra la integración de la inteligencia artificial en procesos decisionales cruciales, planteando interrogantes sobre la transparencia y ética en dichas decisiones.
7. Integración de la IA en armamento y guerra. Se trata de la incorporación de tecnologías de IA en el ámbito militar, generando preocupaciones sobre la escalada y la ética en el uso de estas herramientas en conflictos.
8. Proliferación descontrolada de tecnologías de IA de propósito general cada vez más poderosas. Representa el riesgo de un desarrollo no regulado de tecnologías de IA avanzadas, con potencial para impactar significativamente en diversos aspectos de la sociedad.
La educación como el pilar fundamental ante los riesgos de la IA
Según lo destacado por los participantes en la encuesta GRPS, la educación se erige como un pilar fundamental. La concientización y la alfabetización en inteligencia artificial emergen como estrategias cruciales para abordar la preparación y reducción de los resultados adversos de estas tecnologías.
Los encuestados han enfatizado la necesidad de incorporar la alfabetización en IA generativa en sistemas educativos y programas de formación, no solo para reguladores sino también para periodistas y tomadores de decisiones. Este enfoque busca no solo comprender las capacidades de los sistemas de IA, sino también cultivar la habilidad de identificar fuentes confiables de información en un entorno cada vez más digital.
Aunque los esfuerzos a nivel nacional pueden no evitar la proliferación global de la IA, establecer estándares sólidos pero flexibles en materia educativa puede alinear el desarrollo tecnológico con las necesidades de la sociedad.
Además, la evolución de la legislación existente en áreas como propiedad intelectual, empleo, política de competencia, protección de datos, privacidad y derechos humanos debería incorporar una fuerte componente educativa. La formación en ética digital y el entendimiento profundo de las implicancias sociales de la IA se vuelven esenciales para la adopción informada y ética de estas tecnologías. La colaboración entre el sector privado y el académico debería incluir un componente educativo robusto, fomentando la formación continua y la difusión de conocimientos en el ámbito de la inteligencia artificial.
En paralelo a la centralidad de la educación, los encuestados subrayan la importancia de regulaciones efectivas y la cooperación global para abordar los riesgos asociados a la inteligencia artificial. Marcos de gobernanza global, como la Declaración de Hiroshima del G7 sobre el proceso de Inteligencia Artificial Generativa (que fija un código de conducta) y la Declaración de Bletchley (que da pautas sobre ciberseguridad, biotecnología y desinformación, entre otros temas), proporcionan orientación para el desarrollo de la IA y destacan la necesidad de una supervisión extendida a una base de datos de informes y sistemas cruciales de IA.