En Kranj, Eslovenia, se celebró recientemente el segundo Foro Global sobre Ética de la Inteligencia Artificial organizado por el Gobierno de Eslovenia y la Unesco. El foro contó con la participación de líderes políticos, empresariales, sociales y académicos de todo el mundo para debatir sobre los desafíos y oportunidades que plantea la inteligencia artificial (IA) para el desarrollo humano, sostenible y educativo.
Marco ético para la IA
Una de las conversaciones centrales del foro se focalizó en la aplicación de la recomendación sobre la Ética de la IA, la primera norma mundial sobre este tema, adoptada por la Unesco en el año 2021. Esta recomendación estableció los principios y valores que deben guiar el diseño, el desarrollo y el uso de la IA, tales como el respeto a los derechos humanos, la dignidad, la diversidad, la justicia, la solidaridad, la paz y el medio ambiente.
Durante una sesión del foro, se presentaron los resultados de las evaluaciones de preparación y de Impacto ético realizadas en casi 50 países de diferentes regiones y niveles de desarrollo. Estos resultados mostraron las fortalezas y las debilidades de cada país en relación con la ética de la IA, así como las buenas prácticas y las lecciones aprendidas. Asimismo, se destacó la importancia de compartir experiencias y conocimientos entre los países, así como de establecer mecanismos de seguimiento y revisión de la aplicación de la recomendación.
Temas clave del foro
El foro abordó varios temas claves relacionados con la ética de la IA: la equidad, la diversidad y la no discriminación; la supervisión de la IA; el impacto de la IA en la igualdad de género; y las asociaciones con el sector privado
El impacto de la IA en la igualdad de género
La IA tiene un gran potencial para promover la igualdad de género, pero también puede perpetuar o agravar las brechas y los estereotipos existentes. Por ejemplo, la IA puede contribuir a mejorar el acceso y la calidad de la educación, salud y empleo para las mujeres y las niñas, pero de igual manera las puede excluir o discriminar en el desarrollo y el uso de esta tecnología, o generar sesgos y violencias de género a través de la IA.
La participación de las mujeres en el sector tecnológico ha sido históricamente limitada debido a una representación y participación insuficiente. Esta tendencia continúa en áreas de rápido crecimiento como la inteligencia artificial, de acuerdo con cifras de la Unesco, las mujeres que están en la toma de decisiones importantes no superan el 20%.
Frente a esta situación, la directora del Centro-i para la Sociedad del Futuro y experta del consejo asesor de Unesco, Elena Estavillo, dijo a EFE que “la tecnología no cierra brechas de manera espontánea, si no hay unas políticas claras y diseños basados en principios inclusivos desde el origen, aumentarán los sesgos de género”.
La directora enfatizó que “los sistemas de IA discriminan a las mujeres porque aprenden de bases de datos sesgadas, que no tienden sino a reproducir inercias”. Así las cosas, Estavilló concluyó que para que la inteligencia artificial sea una oportunidad para la igualdad hay dos cuestiones primordiales: mujeres bien representadas en la toma de decisiones para incorporar la perspectiva de género, al igual que los sistemas de IA no tengan sesgos.
Equidad, diversidad y no discriminación
Uno de los principales desafíos de la IA es garantizar que sus beneficios se distribuyan de forma equitativa y que no se reproduzcan ni se aumenten las desigualdades existentes. Para ello, es necesario promover la inclusión y la participación de diferentes grupos sociales en el desarrollo y el uso de esta tecnología, así como asegurar que los sistemas basados en IA respeten la diversidad cultural, lingüística y de género, y que no discriminen a ninguna persona o colectivo por motivos de raza, etnia, religión, orientación sexual, discapacidad, edad u otros.
En este sentido, los expertos que participaron en el foro enfatizaron en la necesidad de fomentar la alfabetización digital y la educación en ética de la IA, tanto para los creadores y creadoras como para los usuarios y usuarias. Asimismo, se hizo hincapié en la importancia de garantizar la transparencia, la explicabilidad y la rendición de cuentas de los sistemas basados en IA, así como de establecer mecanismos de control y de recurso para prevenir y remediar los posibles daños causados por la IA.
Supervisión de la IA
Otro de los temas clave que trataron fue la supervisión de la IA, es decir, el conjunto de normas, instituciones y procesos que regulan el diseño, el desarrollo y el uso de la IA. La supervisión de la IA debe ser coherente con los principios y valores de la recomendación sobre la ética de la IA pactado en 2021, así como con los marcos jurídicos nacionales e internacionales existentes. Sin embargo, la supervisión de la IA también debe ser flexible y adaptable a los cambios tecnológicos y sociales, así como a las especificidades de cada contexto y sector.
Asociaciones con el sector privado
El sector privado es uno de los principales impulsores y beneficiarios de la IA, pero también tiene una gran responsabilidad en el desarrollo y el uso ético de la IA. Por ello, es fundamental establecer asociaciones entre el sector privado y los demás actores de la gobernanza de la IA, basadas en la confianza, el respeto mutuo y el interés público.
Ocho gigantes tecnológicos como: Lenovo, LG, Mastercard, Microsoft, Salesforce, Telefónica, INNIT y GSMA firmaron un acuerdo con la Unesco para desarrollar una IA más ética. Las organizaciones se comprometieron a asumir plenamente su papel al momento de garantizar la protección de los derechos humanos durante el diseño, desarrollo, compra, venta y uso de inteligencia artificial. Este acuerdo representa un hecho histórico al ser la primera vez que un grupo de empresas se comprometen en este ámbito ante las Naciones Unidas.