Para mitigar los riesgos de la IA generativa, aproveche el juicio colectivo de su equipo

Harvard Business Review Management Update Spanish

La IA generativa (Gen AI) ofrece oportunidades transformadoras para el aprendizaje, el trabajo, la creatividad y la toma de decisiones en las organizaciones. Esto marca un cambio de paradigma hacia una colaboración sin precedentes entre humanos y máquinas. Sin embargo, su integración en la forma de trabajar de las organizaciones es compleja. Los riesgos son numerosos, incluidos los problemas de confianza y precisión, las alucinaciones y los sesgos heredados de los modelos subyacentes. Hoy en día, muchas empresas se enfrentan al dilema de aprovechar el poder de la IA generativa sin caer presa de sus posibles desventajas.

El temor a cometer errores críticos con la IA generativa ha llevado a algunas organizaciones a restringir severamente su uso, o incluso a prohibirlo por completo. Este enfoque evasivo es más peligroso de lo que parece, ya que puede generar consecuencias no deseadas (como que los empleados utilicen cuentas personales para eludir las restricciones) e impide que las empresas aprovechen los beneficios de la IA generativa.

Otras empresas más dispuestas a experimentar con la IA generativa han adoptado un nivel básico de estrategias inteligentes de gestión de riesgos. Estas mitigaciones comienzan con políticas de uso, códigos de conducta, restricciones a herramientas aprobadas y límites establecidos. Estas medidas son recomendables y necesarias, pero insuficientes; ya que no abordan muchos escenarios futuros desconocidos y difíciles de definir, especialmente dada la velocidad del cambio tecnológico.

Cada vez es más frecuente un segundo nivel de mitigación de riesgos: Ahora, muchas empresas alientan a su personal a utilizar el pensamiento crítico y el juicio en torno a las herramientas de IA. Este juicio a nivel individual va más allá de simplemente examinar los resultados generados por la IA; implica establecer el modo de colaboración adecuado con la IA, establecer un contexto y límites claros, y proporcionar retroalimentación continua a la máquina.

El ejercicio del juicio individual tiene más ventajas que las políticas por sí solas. Permite a los empleados interpretar las directrices en el contexto de uso, ya que las políticas no pueden cubrir todas las situaciones. El juicio permite a las personas traducir y adaptar reglas abstractas a escenarios del mundo real; por ejemplo, garantizar la confidencialidad al eliminar cuidadosamente los elementos sensibles específicos incluidos en un prompt. Sin embargo, el juicio individual puede no ser suficiente en todas las circunstancias. De hecho, cuando la IA presenta alucinaciones o genera resultados inexactos, las personas podrían caer inadvertidamente en una "trampa de confianza", influenciadas por el tono autoritario de las sugerencias generadas por la inteligencia artificial.

En este sentido, proponemos un nuevo nivel de mitigación de riesgos: el juicio en equipo.

LOS TRES TIPOS DE JUICIO A NIVEL DE EQUIPOS

La investigación en campos tan diversos (como la atención médica, el control del tráfico aéreo y la generación de energía nuclear) destaca el papel fundamental del trabajo en equipo para mitigar los riesgos operativos.

Un enfoque similar, que combine reglas estrictas con el juicio a nivel de equipos, puede ayudar a las organizaciones a abordar de manera efectiva los desafíos de la IA. Las conversaciones entre colegas pueden aportar perspectivas diversas, cuestionar los resultados y descubrir sesgos ocultos. Recurrir a expertos en la materia puede ayudar a validar datos específicos o revisar áreas en las que existen dudas o inquietudes debido a la falta de conocimientos para juzgar con confianza. El juicio a nivel de equipos tiene tres manifestaciones principales:

1. JUICIO COLECTIVO: Los equipos deben participar en debates para garantizar la precisión, identificar riesgos y evaluar los resultados generados por la IA. Por ejemplo, si los miembros no están seguros de un resultado generado por la IA, deben consultarlo con otros colegas o equipos, y revisar el contenido generado antes de aceptarlo y utilizarlo. Estas rutinas de reflexión y debate compartidos permiten una evaluación integral de los posibles impactos, incluidas las implicaciones éticas y legales.

2. JUICIO ESPECIALIZADO: Cuando se producen imprevistos o se detectan anomalías en los resultados de los sistemas de IA, los equipos deben delegar la autoridad de toma de decisiones a aquellos que son expertos o que están más cerca del trabajo, y no a quienes tienen el rango más alto. Al consultar a los expertos en la materia cuando surgen preguntas o problemas con la IA, sus conocimientos pueden orientar al equipo de manera oportuna y evitar que se extiendan las consecuencias negativas.

3. JUICIO REFLEXIVO: Los equipos deben reunirse periódicamente para compartir y reflexionar sobre sus experiencias y las de otros al usar IA, mejorando así su comprensión y capacidad para navegar por los sistemas de IA. Este aprendizaje continuo es fundamental para seguir el ritmo de la rápida evolución de la tecnología, permitiendo a los equipos aprender de los errores y éxitos para optimizar el uso seguro y eficaz. Un ejemplo de juicio reflexivo es la realización periódica de retrospectivas en equipo para analizar las lecciones aprendidas.

La incorporación de estas formas de juicio a nivel de equipos aborda elementos críticos de riesgo que las políticas o el juicio individual por sí solos podrían pasar por alto. Este enfoque colaborativo ayuda a descubrir puntos ciegos y sesgos, ofreciendo salvaguardas más completas.

DESARROLLAR EL JUICIO A NIVEL DE EQUIPOS

El juicio basado en equipos debe cultivarse antes de que pueda ser efectivo. Requiere práctica y refuerzo constantes para convertirse en un mecanismo sólido para gestionar los riesgos y garantizar resultados de alta calidad. A continuación, se presentan algunas recomendaciones prácticas para ayudar a los líderes a desarrollar esta capacidad dentro de sus equipos:

CÓMO REFORZAR EL JUICIO COLECTIVO

Cree rutinas para la reflexión y debate dentro de los plazos del proyecto. Esto puede incluir reuniones breves o puntos de control diseñados específicamente para la toma de conciencia colectiva. Por ejemplo, después de una interacción uno a uno con la máquina, tomarse un momento para revisar y evaluar los resultados generados por la IA con sus compañeros puede brindar información valiosa y asegurar que los resultados no se acepten acríticamente, sino que se examinen para comprobar su precisión y relevancia. Algunas posibles preguntas para este tipo de sesiones incluyen: ¿Esto es plausible? ¿Se citan correctamente las fuentes? ¿Esta recomendación es propensa a posibles riesgos o sesgos? Hacer este juicio crítico en un grupo es más poderoso, ya que se tienen diferentes perspectivas y experiencia, y es menos probable que se caiga en la trampa de la confianza.

CÓMO REFORZAR EL JUICIO ESPECIALIZADO

Establezca mecanismos para identificar y activar a los expertos en la materia a lo largo del proyecto. En primer lugar, asegurarse de que las personas comprendan la necesidad de involucrar a otros expertos durante el proceso de colaboración entre humanos e IA. A continuación, facilite la identificación de los expertos adecuados (disponiendo de mapas de expertos o una lista de especialistas) y el contacto con ellos (por ejemplo, formulando preguntas en comunidades internas de práctica, a menudo a través de sistemas de chat virtual o foros de discusión). Introduzca incentivos para los expertos que apoyen a los equipos y orienten la toma de decisiones cuando surjan problemas.

CÓMO REFORZAR EL JUICIO REFLEXIVO

Dedique tiempo a actividades de aprendizaje continuo y fomente el intercambio de experiencias mediante sesiones y repositorios dedicados. Las sesiones retrospectivas deben incorporarse a los planes de los proyectos para facilitar el aprendizaje dentro y entre los equipos. Algunas preguntas útiles para explorar incluyen: ¿Qué aprendimos este mes al utilizar esta nueva tecnología? ¿Cuáles son los errores más comunes? ¿Cómo están lidiando nuestros colegas con desafíos similares? ¿Cómo podemos integrar mejor la IA generativa en nuestros flujos de trabajo para evitar estos errores? Además, el aprendizaje puede consolidarse y conservarse en un repositorio de conocimientos o como parte de academias de IA generativa.

El juicio basado en equipos es un activo estratégico para navegar en un futuro impulsado por la IA. Al cultivar esta capacidad a gran escala, las empresas están mejor equipadas para adaptarse rápidamente al cambiante panorama de la IA, incluidos los riesgos que aún no son generalizados o conocidos. Esta sabiduría colectiva permite a las organizaciones adoptar con confianza la integración de la IA, adaptarse a los flujos de trabajo cambiantes y gestionar las complejidades de la colaboración entre humanos e IA, acelerando la obtención de beneficios y mitigando de forma proactiva los riesgos existentes y emergentes.