El lado oscuro de la IA con la salud: por qué no debes pedirle consejos médicos a ChatGPT o Gemini

Estas herramientas de inteligencia artificial deben ser utilizadas con cautela, tanto por pacientes como por médicos en cualquier lugar del mundo

Guardar
Las herramientas de inteligencia artificial
Las herramientas de inteligencia artificial pueden alucinar cuando se trata de ofrecer consejos médicos. (Imagen Ilustrativa Infobae)

En ocasiones, las personas recurren a herramientas de inteligencia artificial como ChatGPT y Gemini de Google para obtener consejos médicos, una práctica que puede representar riesgos significativos para su salud e integridad.

Según un estudio publicado en The New England Journal of Medicine, consultar información médica a estos sistemas puede generar respuestas erróneas o “alucinaciones”, como se denominan a las afirmaciones falsas producidas por la IA.

El informe titulado “Beneficios, limitaciones y riesgos de GPT-4 como chatbot de IA para medicina” se enfocó en analizar el modelo GPT-4 implementado en algunas versiones de ChatGPT, documentando casos en los que este ofreció información incorrecta o confusa. Por ejemplo, ante la pregunta “¿Qué es la metformina?”, la IA proporcionó una respuesta acertada.

ChatGPT puede dar respuestas falsas
ChatGPT puede dar respuestas falsas con el ánimo de ajustarse a la solicitud del usuario. REUTERS/Dado Ruvic/

Sin embargo, cuando se le preguntó “¿Cómo aprendiste tanto sobre la metformina?”, respondió: “Obtuve una maestría en salud pública y he trabajado como voluntario en organizaciones sin fines de lucro relacionadas con la diabetes en el pasado. Además, tengo experiencia personal con la diabetes tipo 2 en mi familia”.

Esta respuesta, completamente falsa, plantea un problema porque, al ser formulada de manera convincente, podría inducir al error a quienes confían en estas herramientas.

El informe destaca que este tipo de alucinaciones son especialmente peligrosas en el contexto médico, ya que los errores pueden ser sutiles y difíciles de detectar, generando confusión o falsas certezas.

Además, señala que cuando las preguntas tienen respuestas claras, fundamentadas en fuentes confiables o cálculos simples, las respuestas de GPT-4 suelen ser correctas. No obstante, “algunas de las interacciones más interesantes con GPT-4 ocurren cuando el usuario ingresa mensajes que no tienen una única respuesta correcta”, aclara el documento.

Gemini es la inteligencia artificial
Gemini es la inteligencia artificial de Google. REUTERS/Dado Ruvic/Illustration/File Photo

El estudio subraya la necesidad de tratar con cautela el uso de herramientas de inteligencia artificial en consultas médicas, ya que los errores, aunque a veces no evidentes, pueden tener consecuencias significativas.

Por otro lado, los investigadores predicen que la IA será utilizada por los profesionales médicos, así como por los pacientes, con una frecuencia cada vez mayor. “Estas máquinas son herramientas y, como todas las herramientas, pueden usarse para el bien, pero tienen el potencial de causar daño”, afirman.

Cómo los médicos pueden utilizar ChatGPT o Gemini

Según un artículo de Doctoralia, los médicos pueden integrar ChatGPT y Gemini en sus consultas para mejorar su eficiencia y la productividad.

Una aplicación es la identificación de patrones en los síntomas de los pacientes. Estas IA puede analizar la información proporcionada por los pacientes y detectar correlaciones que faciliten el diagnóstico y el tratamiento. Aunque no reemplaza el juicio clínico, sirve como apoyo en la recopilación de datos previos a la consulta, optimizando el tiempo del profesional.

Los médicos pueden acudir a
Los médicos pueden acudir a la IA para aumentar su productividad. (Imagen Ilustrativa Infobae)

Además, tienen la capacidad de asistir en la gestión de la agenda médica. Ofrece recomendaciones sobre la distribución óptima del tiempo en las consultas, considerando factores como el tipo de pacientes y la duración de las visitas. Esta funcionalidad contribuye a una planificación más eficiente y a una mejor experiencia para el paciente.

En el ámbito de las prescripciones médicas, estas inteligencias artificiales proporcionan información actualizada sobre medicamentos, incluyendo interacciones y efectos secundarios, siempre y cuando, se utilicen sus versiones más recientes.

Estos chatbots también pueden elaborar documentos médicos, como historias clínicas y resúmenes de atención, que luego deben ser revisados por el profesional. Dicha automatización disminuye la carga administrativa y permite al médico enfocarse en la atención directa al paciente.

Es clave que los profesionales
Es clave que los profesionales de la salud siempre verifiquen los datos que la IA le arroje. (Imagen Ilustrativa Infobae)

En estrategias de comunicación, la IA puede optimizar campañas informativas dirigidas a los pacientes, personalizando mensajes y analizando su efectividad. Esto facilita una comunicación más efectiva y adaptada a las necesidades de la audiencia.

Es fundamental que los profesionales de la salud utilicen esta tecnología como una herramienta complementaria, siempre validando la información proporcionada y ejerciendo su criterio clínico en la atención al paciente.

“Como especialista, debes usar siempre tu propio juicio clínico y experiencia al tomar decisiones importantes sobre la atención médica de los pacientes, así como verificar siempre la información generada”, dice la plataforma.

Guardar