En un panorama en rápida evolución, organizaciones de todo tipo -públicas, privadas, comerciales, sin ánimo de lucro- se embarcan en un estimulante viaje hacia el mundo de la inteligencia artificial generativa (IA). Mientras que algunas empresas ya habían desarrollado sistemas de IA tradicionales (IA pregenerativa), basados principalmente en predicciones de aprendizaje automático alimentadas por datos estructurados, muchas navegan ahora por un territorio inexplorado de IA y las posibilidades son infinitas.
La tecnología emergente ya nos ha hipnotizado antes, desde la revolución de la cadena de bloques y el encanto del metaverso hasta el frenesí que rodea a las NFT, pero la IA generativa es un nuevo pináculo de la innovación tecnológica. El vasto espectro de aplicaciones es realmente impresionante, desde la automatización de procesos empresariales hasta la liberación de la IA para obtener profundos beneficios sociales.
Sin embargo, en medio de esta gran promesa se esconde un gran peligro. Se ha escrito mucho sobre los riesgos de la IA, desde la posibilidad de resultados discriminatorios hasta amenazas más existenciales para la humanidad. La pregunta que se plantea es: ¿Quién asumirá la responsabilidad fundamental de salvaguardar a la humanidad en esta era de la IA?
Falta de acción
Aunque varias ONG y organizaciones de la sociedad civil analizan diligentemente los riesgos de la IA, su enorme potencial económico y comercial hace difícil que los no profictores frenen su desarrollo. Los responsables políticos también están tomando medidas para hacer frente a este maremoto de la IA, como demuestra la reciente aprobación de la Ley de IA de la UE por el Parlamento Europeo. Sin embargo, la regulación mundial de la IA es hoy en día inmadura, y la perspectiva de una fuerte regulación mundial de la IA sigue siendo incierta.
A veces, los gobernantes optan por no regular la tecnología innovadora. En 1997, el gobierno de Bill Clinton publicó un informe fundamental, titulado A Framework for Global Electronic Commerce, en el que abogaba por la autorregulación de la industria sin restricciones indebidas al comercio electrónico. Un año después, el Presidente Clinton firmó la Ley de Libertad Fiscal en Internet, que fomentaba la innovación, permitiendo que Internet prosperara con una fiscalidad limitada.
Del mismo modo, el Gobierno chino decidió estratégicamente no regular en exceso la innovación FinTech y el auge de las superapps durante un periodo significativo del desarrollo tecnológico. Si las ONG y los gobiernos no asumen el papel de guardianes estrictos de la IA, debemos esperar que las empresas y sus consejos de administración aprovechen el momento y asuman el papel de guardianes de la IA.
Los consejos de administración desempeñan un papel relevante en la supervisión de un amplio espectro de riesgos organizativos, incluido el intrincado panorama de los riesgos de la IA. La histórica sentencia Caremark dictada en 1996 por el Tribunal de Equidad de Delaware estableció una norma jurídica fundamental (aunque mínima) para la supervisión de los consejos de administración. Pero, ¿podemos confiar en que el sistema jurídico garantice una gobernanza sólida de los programas de IA de las empresas? Los consejos de administración gozan de un amplio margen de maniobra en el ejercicio de sus responsabilidades de gobierno. Deben establecer un sistema de supervisión, controlarlo y actuar ante cualquier señal de alarma que surja.
Establecer límites de tolerancia ética
Teniendo en cuenta los retos éticos específicos que plantea la IA, la responsabilidad de los consejos debe ir más allá de los requisitos legales mínimos y asumir una profunda responsabilidad ética con una gobernanza pionera de la IA. Los consejos pueden adoptar prácticas éticas de IA que salvaguarden los intereses de las partes interesadas y de la humanidad en general, al tiempo que cumplen el deber fiduciario para con sus accionistas. El comportamiento ético no solo puede mejorar la reputación y la fiabilidad de una empresa, sino que también sienta las bases de un éxito duradero. Me anima que muchos consejos vayan más allá y promuevan ciertas acciones éticas de la IA que benefician a la sociedad sin pruebas directas de una conexión positiva con su negocio.
El consejo debe establecer las fronteras de la tolerancia ética dentro de la empresa, fijando los límites de lo que es moralmente aceptable en todas las iniciativas de IA de la compañía. La ética debe ser la guía que ilumine todas las facetas de la estrategia de IA de una empresa. He aquí cinco acciones que los consejos deberían considerar para promover la gobernanza ética de la IA:
Aumentar la experiencia tecnológica del consejo: Llene un puesto vacante en el consejo con un tecnólogo o experto en IA. Adopte la IA de primera mano interactuando directamente con esta tecnología transformadora; experimente con herramientas generativas de IA para mejorar su trabajo en el consejo. Invite a expertos en IA para que aporten nuevas perspectivas.
Vaya más allá del cumplimiento legal: Recuerde que Caremark solo representa las normas mínimas de supervisión. Vaya más allá y eleve la gobernanza de la IA más allá del cumplimiento legal, ya sea un componente crítico de la responsabilidad social corporativa, una expresión de los principios ESG u otra manifestación de un deber para con la sociedad. Las aplicaciones de IA de su empresa no solo deben ajustarse al derecho positivo, sino también defender los derechos humanos fundamentales, reconociendo nuestro deber con el derecho natural.
Forme un consejo de ética: Establezca un consejo de ética compuesto por expertos versados en ética, antropología, tecnología, datos, derecho y derechos humanos. Aproveche este consejo multidisciplinar para evaluar rigurosamente las aplicaciones empresariales de IA, proporcionando una nueva perspectiva sobre las consideraciones éticas. La diversidad es clave en un análisis ético adecuado de la IA.
Establezca un comité tecnológico o un consejo asesor: Un avance de la investigación de EY revela que el 13% de las empresas S&P 500 han instituido algún tipo de comité tecnológico a nivel de junta directiva. Estos comités han demostrado ser muy valiosos para gestionar eficazmente los riesgos tecnológicos y dirigir la agenda de innovación y crecimiento impulsada por la tecnología.
Fomentar la colaboración dentro del ecosistema de la IA: Los consejos de administración deben asegurarse de que la empresa colabora eficazmente en el ecosistema de la IA. Colabore con los actores de la industria, los responsables políticos y los expertos en ética para establecer colectivamente normas éticas de IA que respeten los valores sociales.
Los consejos de administración de las empresas están a la vanguardia de la gobernanza ética de la IA. Están en una posición única para salvaguardar a la humanidad, garantizando que la IA se diseñe, desarrolle y despliegue de forma ética y responsable. Los consejos de administración son la brújula que puede guiarnos hacia un futuro en el que la IA se aproveche no solo por su enorme potencial, sino también por su integridad. Sobre ellos recae la gran responsabilidad de garantizar que la IA no se utilice únicamente para obtener beneficios económicos, sino que se aplique de forma ética, responsable y con una dedicación inquebrantable a nuestros valores compartidos.
Al navegar por las complejas aguas de la revolución de la IA, no nos limitemos a cumplir nuestras obligaciones legales, si no trascendámoslas. Infundamos ética en cada línea de código de software, en cada decisión y en cada acción. Cultivemos un legado de innovación responsable que sirva de faro para las generaciones venideras y salvaguarde la dignidad y los derechos de todos. Embarquémonos juntos en este noble viaje, porque el futuro de la IA, y de hecho de la humanidad, depende de las decisiones que tomemos hoy.