Cómo implementar la IA de manera responsable

Harvard Business Review Management Update Spanish

Si bien la ética de la IA ocupa un lugar destacado en la agenda de muchas organizaciones, traducir los principios de IA en prácticas y comportamientos resulta ser más difícil de lo que parece. ¿Qué deberían hacer los líderes para redoblar sus iniciativas de IA responsable? Identificamos cuatro pasos clave (traducir, integrar, calibrar y difundir) que los líderes pueden dar para garantizar que las prácticas de IA responsable se integren plenamente en estándares operativos más amplios.

PASO #1: TRADUCIR LOS PRINCIPIOS DE ALTO NIVEL EN GUÍAS PRÁCTICAS

Muchas organizaciones elaboran una carta ética de la IA, pero a menudo tienen dificultades para implementar los principios de IA en sus operaciones diarias. El 79% de los trabajadores del sector tecnológico afirman necesitar recursos prácticos que les ayuden a abordar las cuestiones éticas, por lo que estos principios deben traducirse en guías prácticas.

Es un proceso que lleva tiempo. En 2021, la empresa alemana de comunicaciones Deutsche Telekom presentó las directrices de ingeniería y uso de la IA, que documentaban las mejores prácticas, métodos y consejos para incorporar los principios en los procesos de desarrollo de IA. Estas directrices proporcionaban acciones específicas a tomar antes, durante y después del lanzamiento de un proyecto de desarrollo de IA, destacando consideraciones esenciales para propietarios de empresas, gerentes de proyectos, equipos de productos y equipos operativos. Disponibles en alemán e inglés, cada directriz estaba claramente documentada y se puso a disposición de todos los empleados.

ACCIONES CLAVE: FACILITAR LA ALINEACIÓN

MANTENER UNIDOS A LOS EQUIPOS: Los equipos digitales y de cumplimiento a menudo han tenido una relación complicada. El cumplimiento se considera un impedimento para la innovación digital, mientras que los equipos digitales son vistos como disidentes que buscan riesgos. El éxito de la alineación entre ambos suele depender de la estructura de gobernanza. En Thomson Reuters, una empresa global de contenido y tecnología, el equipo de ética trabajó en estrecha colaboración con el equipo de gobernanza de datos y modelos. Los dos equipos cubrían diferentes aspectos del mismo tema, como la forma de garantizar que los datos se utilizaran de forma responsable y segura en toda la organización.

FACILITAR DIÁLOGOS ABIERTOS: Crear diálogos abiertos es tan importante como establecer un sistema de gobernanza bien estructurado.

Tomemos como ejemplo la iniciativa de Deutsche Telekom de traducir el principio de transparencia en anuncios de atención al cliente mediante chatbots de IA. El departamento de servicio expresó su preocupación sobre la posibilidad de que el cliente se desvinculara si se le saludaba con mensajes formales como: "Hola, soy el asistente de servicio digital de Deutsche Telekom". Esta preocupación dio lugar a extensas deliberaciones entre los departamentos de cumplimiento, ética y servicio, que finalmente condujeron al desarrollo de un grupo de trabajo para idear una solución adecuada.

PASO #2: INTEGRAR CONSIDERACIONES ÉTICAS EN LOS PROCESOS DE DISEÑO Y DESARROLLO DE IA

El siguiente paso es integrar las consideraciones éticas en la rutina de desarrollo de IA. Lamentablemente, en muchos proyectos de IA surgen problemas éticos después de la implementación. Para evitar estas situaciones, muchas organizaciones han adoptado un enfoque proactivo, abordando las cuestiones éticas durante la fase de desarrollo. Descubrimos que las organizaciones con una sólida gobernanza de datos aprovechaban sus procesos de privacidad existentes para incorporar principios éticos de IA adicionales.

ACCIONES CLAVE: NAVEGACIÓN Y SOPORTE

ADAPTARSE A LA RELEVANCIA OPERATIVA: Las organizaciones tienen la tarea de implementar marcos que no solo cumplan con los estándares globales, sino que también resuenen con sus realidades operativas únicas. Un estudio de 2019 identificó 106 herramientas y metodologías, y esta cifra sigue creciendo. Los líderes pueden ayudar a analizar este panorama abarrotado para garantizar que las herramientas y los marcos de IA sean integrales y relevantes desde el punto de vista operativo. Por ejemplo, cuando SwissPost, el servicio postal nacional de Suiza, se dio cuenta de que un proceso de autocertificación que estaban probando se superponía significativamente con sus requisitos de certificación ISO preexistentes, respondió desarrollando un proceso simplificado que incorporaba solo preguntas que no estaban cubiertas por la ISO.

PROPORCIONAR APOYO CONTINUO: El viaje no termina con la configuración inicial de barandillas éticas; requiere apoyo y supervisión continuos. Las organizaciones pueden establecer mecanismos de apoyo continuo para responder las preguntas a medida que surjan. Al configurar una cuenta de correo electrónico centralizada, Deutsche Telekom invitó a personas y equipos a enviar consultas sobre la implementación de la ética de la IA.

PASO #3: CALIBRAR LAS SOLUCIONES DE IA EN RESPUESTA A LAS CONDICIONES LOCALES Y A LOS CAMBIOS TECNOLÓGICOS

En las fases de prueba y evaluación, el objetivo principal es verificar que la solución de IA cumpla con los objetivos y requisitos originales. Un aspecto esencial de la fase de calibración es garantizar que la solución siga siendo relevante para las aplicaciones del mundo real. Con el tiempo, puede producirse una divergencia entre los escenarios para los que se creó la solución de IA y las situaciones cambiantes del mundo real. Es necesario un seguimiento continuo para detectar y adaptarse a cualquier cambio.

ACCIONES CLAVE: MANTENER EL IMPULSO

El seguimiento y ajuste de las soluciones de IA en respuesta a las condiciones locales y a los cambios tecnológicos requiere importantes inversiones en tiempo y recursos, sobre todo en personal y en la implementación de procedimientos de "alerta roja".

POSICIONAR LA IA RESPONSABLE COMO IMPULSOR DE VALOR: Las organizaciones líderes alinean las consideraciones éticas con los objetivos comerciales. La compañía de seguros suiza Die Mobiliar ejemplifica este enfoque. En lugar de considerar la ética de la IA como un proceso engorroso lleno de listas de verificación, la empresa se centró en encontrar un equilibrio óptimo entre la estrategia empresarial, la privacidad de los datos y la ética de la IA. Para lograrlo, Die Mobiliar empleó un equipo interdisciplinario, que incluía representantes de cumplimiento, seguridad, ciencia de datos y TI, que se reunían periódicamente para explorar esta sinergia.

APROVECHAR LAS ALIANZAS EXTERNAS: La colaboración con expertos externos, instituciones académicas y grupos del sector puede proporcionar nuevas perspectivas y conocimientos que contribuyan al ajuste de las soluciones de IA.

PASO #4: DIFUNDIR PRÁCTICAS Y ENSEÑANZAS AL RESTO DE LA ORGANIZACIÓN

En el panorama de la IA, en rápida evolución, fomentar un entorno de aprendizaje e intercambio puede mejorar la conciencia y empoderar a los empleados para que contribuyan al desarrollo responsable de la IA. Sin embargo, las organizaciones también enfrentan el desafío a corto plazo de mejorar las habilidades de la fuerza laboral en los desarrollos de IA que impactan al negocio en la actualidad. La compañía farmacéutica Bristol-Meyers-Squibb (BMS) creó una comunidad autoorganizada llamada "AI Collective". Se reunían regularmente en intervalos de 4 a 6 semanas para intercambiar perspectivas e ideas sobre cómo hacer avanzar los proyectos de IA dentro de la empresa y discutir las últimas tendencias, puntos de referencia, mejores prácticas y casos de uso interesantes.

ACCIONES CLAVE: PRIORIZAR Y ESCALAR

REALIZAR UN ANÁLISIS DE LAS PARTES INTERESADAS Y PRIORIZAR LAS FUNCIONES: Cuando los recursos son limitados y la necesidad de un impacto inmediato es alta, centrarse en las funciones clave que más influyen en el desarrollo de la IA se vuelve crucial. Un primer paso práctico es realizar un análisis de las partes interesadas para identificar los roles con mayor impacto en el desarrollo de la IA y la aplicación ética. Al analizar su panorama de partes interesadas, SwissPost identificó a los gerentes de proyectos con capacidades analíticas como fundamentales para el éxito de sus iniciativas de IA. En consecuencia, la organización tomó la decisión estratégica de priorizar las capacitaciones en ética de la IA para estas personas clave, asegurando que quienes están más involucrados en la dirección de proyectos de IA estén equipados con el conocimiento necesario para abordar eficazmente las consideraciones éticas.

CREAR UN CONJUNTO DE HERRAMIENTAS PARA ESCALABILIDAD: Proporcionar recursos prácticos para ayudar a compartir prácticas de IA responsable puede lograrse mediante el desarrollo de un kit de herramientas de escalabilidad para IA responsable. La firma industrial francesa Thales creó un conjunto de herramientas adaptables y con capacidad de búsqueda que las diferentes divisiones de la organización podrían utilizar para implementar prácticas de IA responsable. Este kit de herramientas contenía información sobre prácticas de IA responsable, consejos de aplicación, material de comunicación y estudios de casos diseñados para ayudar a los equipos locales de IA.

Si bien muchas organizaciones han avanzado en el desarrollo de principios de IA, el verdadero desafío radica en incorporar estos principios en el tejido de las operaciones diarias. Los líderes, en particular aquellos con funciones no técnicas, desempeñan un papel decisivo en este proceso al abogar por recursos prácticos, fomentar una cultura que valore la IA ética y garantizar que las prácticas responsables de IA sean un aspecto fundamental de la toma de decisiones.