Tras la irrupción del modelo de inteligencia artificial ChatGPT, también se generó en muchos usuarios la falsa creencia de que este sistema conversacional es un reemplazo de las búsquedas web tradicionales.
Recordemos que este chatbot puede responder preguntas sobre una amplia gama de temas y proporcionar información y explicaciones. También, producir textos coherentes y bien estructurados para informes, ensayos, cartas, correos, entre otros.
Sin embargo, tiene notables diferencias con un motor de búsqueda que rastrea en páginas web indexadas que se relacionan a la solicitud de un usuario y se actualiza constantemente con base al contenido nuevo que haya en la red para devolver resultados ordenados según su relevancia.
De hecho, en el caso de ChatGPT, esto no funciona así debido a que no tiene la capacidad de consultar Internet en tiempo real y la información que genera se basa en los datos con los que se le ha entrenado hasta ese momento, que por el momento incluyen contenidos hasta 2022.
Incluso el mismo chatbot contesta cuando se le pregunta por algo de actualidad, que no tiene acceso a las últimas noticias ni puede proporcionar información sobre eventos actuales, como si lo hace un motor de búsqueda.
En particular, el modelo gratuito GPT-3.5 de OpenAI, accesible a través del sitio web de OpenAI, evidencia esta limitación cuando se le consulta sobre eventos recientes, como el lanzamiento de The Legend of Zelda: Tears of the Kingdom o los ganadores de eventos deportivos como el Super Bowl o la Copa Mundial Femenina de la FIFA.
Las respuestas no siempre son fiables
A pesar de la comodidad y la novedad que presentan los nuevos modelos de IA generativa, es importante tener presente que estos se entrenan con información de Internet, no siempre verificada ni fiable.
La premisa de “basura entra, basura sale” resalta la problemática de la fuente de datos, debido a que si el modelo de IA se entrena con errores, estos mismos influenciarán sus juicios y resultados.
De hecho, a pesar de las avanzadas capacidades lingüísticas de modelos como GPT-3.5 y GPT-4, existen incidentes donde se han demostrado fallos en la verificación de hechos, los cuales se conocen como alucinaciones.
Además, el nivel de especificidad de la entrada del usuario (Prompt), también juega un rol crucial en la precisión de las respuestas de un chatbot.
Indicaciones poco claras o breves pueden llevar a respuestas inexactas, por lo que sugiere que para una mejor experiencia, el usuario debe abordar estos sistemas de manera informada y detallada para maximizar su potencial y minimizar el riesgo de errores.
El acceso a la información verificable es crucial en la era digital
Los chatbots como ChatGPT evitan citar sus fuentes a favor de una experiencia conversacional, lo que puede ser problemático cuando la veracidad de la información es vital, como en el ámbito de la salud y la consulta especializada.
Y aunque ha simplificado la búsqueda de información, la ausencia de referencias plantea un desafío para la confirmación de los datos.
Por ejemplo, al consultarle sobre cuál es el ave más grande del mundo dio una respuesta correcta, pero no ofreció fuentes ni detalles cruciales para su verificación.
El peligro de confiar en datos no verificados se hizo evidente en un incidente en Reddit relacionado con consejos de salud basados en información falsa, subrayando la necesidad de mantener un nivel de crítica y buscar fuentes confiables para asuntos de importancia.
Bing AI, por su parte, intenta respaldar sus afirmaciones con enlaces a fuentes online y una base de datos más actualizada proporcionada por GPT-4.
Mientras que ChatGPT Plus, la versión de suscripción de ChatGPT, ofrece también la capacidad de citar fuentes gracias a su conexión a Internet en vivo.
Sin embargo, la importancia de revisar las fuentes citadas, aun cuando se utilicen estas herramientas más avanzadas, es esencial para evitar tomar decisiones basadas en información errónea, particularmente en asuntos críticos como la salud, la educación y direcciones de vida significativas.