La inteligencia artificial (IA) se ha convertido en una herramienta fundamental, sin embargo, la proliferación de modelos de lenguaje de gran tamaño (LLM) como GPT-4 ha sacado a la luz un desafío crucial, la desconfianza de los humanos.
Este fenómeno se caracteriza por presentar respuestas erróneas presentadas por la IA, que para algunos usuarios es notoria su falta de veracidad, mientras que para otros terminan siendo perjudicados al usar información falsa para algunas tareas diarias a nivel educativo o laboral.
Por esta razón, Microsoft está trabajando en estrategias para minimizar la información falsa difundida por la IA, que todavía no cuenta con la total credibilidad en algunos campos de estudio.
Por qué la inteligencia artificial se equivoca y crea desconfianza
La inteligencia artificial se equivoca en varias ocasiones como cuando se le pide un artículo sobre un tema en específico y termina arrojando un resultado que no corresponde. Un hecho que trae desconfianza a los humanos.
Estos errores son llamados alucinaciones que ocurren cuando los modelos de IA, a pesar de estar entrenados con grandes cantidades de datos, producen respuestas que se desvían de la realidad.
Entonces Microsoft para evitar estos contratiempos ha decidido someter a sus modelos de IA a pruebas rigurosas diseñadas para inducir la creación de información falsa.
Esta estrategia, similar a un entrenamiento de resistencia para la IA, permite a los investigadores identificar las vulnerabilidades en los modelos y desarrollar soluciones para contrarrestarlas.
Cómo evitar que la inteligencia artificial ofrezca respuestas falsas
Para evitar que la inteligencia artificial ofrezca respuestas falsas, varias compañías trabajan en planes de acción, que optimicen la veracidad de la IA.
“Microsoft quiere asegurarse de que cada sistema de IA que construye ofrece la confianza necesaria para poder utilizarlo de forma eficaz”, afirmó Sarah Bird, directora de producto de Responsible AI en Microsoft, en un comunicado oficial emitido por la empresa.
Con este principio de mente, Microsoft ha concentrado sus esfuerzos en enriquecer sus modelos con información precisa y actualizada a los más recientes. Este enfoque, basado en datos de calidad, busca minimizar las posibilidades de que la IA genere información errónea o inventada, y reducir posibles secuelas desafortunadas.
Cómo contrarrestar que la inteligencia artificial alucine
Para contrarrestar que los distintos asistentes con IA alucinen, en el caso de Microsoft, ha integrado una serie de herramientas avanzadas en Azure OpenAI Service y Azure AI.
Estas herramientas, diseñadas para brindar un entorno seguro y controlado, permiten a las organizaciones preparar y entrenar sus aplicaciones de IA generativa utilizando sus propios datos. Entre las soluciones disponibles se encuentran:
- Servicios de evaluación: permiten a los desarrolladores evaluar el rendimiento de sus modelos de IA y detectar posibles señales o inexactitudes.
- Plantillas de mensajes de seguridad: proporcionan un marco para la creación de mensajes y respuestas que minimizan el riesgo de generar contenido inapropiado o engañoso.
- Mecanismos de detección en tiempo real: supervisan el funcionamiento de las aplicaciones de IA y alertan sobre cualquier actividad sospechosa o potencialmente dañina.
Estar a la vanguardia de la IA generativa implica la responsabilidad y la oportunidad de hacer nuestros productos más seguros y fiables”, afirmó Ken Archer, jefe de producto de Responsible AI de Microsoft.
Qué implicaciones tiene que la IA no ofrezca respuestas confiables
Las implicaciones que tiene una respuesta errónea de la IA puede ser un riesgo en casos donde se incluya en campos de suma rigurosidad como la ciencia o la gestión de riesgos.
Ya sea desde investigaciones con información errónea, hasta un simple trabajo académico, el uso de IA puede terminar afectando al usuario, mitigando la capacidad de la inteligencia artificial para adaptarse a la época actual.
Todo esto subraya el compromiso que deben tomar las grandes compañías en la construcción de una IA responsable y confiable, y así abordar los desafíos como las alucinaciones para garantizar que esta tecnología se utilice de manera ética y beneficiosa para la sociedad.