Un chat con Inteligencia Artificial derrotó un equipo de 50 médicos en el diagnóstico de enfermedades

Un modelo de ChatGPT, ha demostrado una precisión del 90% en la identificación de enfermedades, abriendo el debate sobre su rol futuro en la atención sanitaria

Guardar
ChatGPT-4 logra un 90% de
ChatGPT-4 logra un 90% de precisión en diagnósticos, superando la media de los médicos (Imagen Ilustrativa Infobae)

¿Puede la inteligencia artificial superar a los médicos en precisión diagnóstica? Un reciente estudio publicado en la revista JAMA Network Open ha puesto sobre la mesa esta provocadora cuestión, tras comparar el rendimiento de ChatGPT-4, un modelo de lenguaje avanzado, con el de 50 médicos en un escenario controlado de diagnósticos clínicos. Los resultados sorprendieron incluso a los investigadores: el chatbot superó en precisión a los médicos y demostró ser más eficiente en la identificación de enfermedades complejas.

La investigación, encabezada por el doctor Adam Rodman, especialista en medicina interna en el Beth Israel Deaconess Medical Center, evaluó la capacidad de diagnóstico a través de seis casos clínicos basados en pacientes reales. Mientras que los médicos lograron una precisión media del 74% (sin herramientas) y 76% (con el apoyo de ChatGPT), el chatbot alcanzó una media del 90% trabajando en solitario. Este hallazgo no solo plantea interrogantes sobre el potencial de la inteligencia artificial (IA) en el ámbito médico, sino también sobre la reticencia de los profesionales a confiar en estas tecnologías emergentes.

“Quedé impactado al ver los resultados”, admitió el Dr. Rodman en declaraciones recogidas por el New York Times, quien también destacó que los médicos suelen mostrar una confianza inquebrantable en sus diagnósticos, incluso frente a sugerencias correctas proporcionadas por la IA. Este sesgo cognitivo, unido a una falta de formación en el uso adecuado de herramientas basadas en IA, emergió como uno de los principales retos en la integración de estas tecnologías en la práctica médica.

El estudio involucró la participación
El estudio involucró la participación de 50 médicos en medicina interna y emergencias (Imagen Ilustrativa Infobae)

El experimento involucró a 50 médicos, incluyendo residentes y especialistas con experiencia en medicina interna, familiar y de emergencias, quienes participaron de forma virtual y presencial. Se les presentaron seis casos clínicos, cada uno basado en pacientes reales, pero cuidadosamente seleccionados para no estar presentes en los datos de entrenamiento de ChatGPT-4. Este cuidado garantizó que el chatbot no tuviera ventajas relacionadas con su base de datos previa.

Los participantes debían identificar hasta tres diagnósticos posibles para cada caso, respaldar sus hipótesis con evidencia y detallar pasos adicionales necesarios para confirmar sus conclusiones. Mientras algunos médicos utilizaron herramientas convencionales como bases de datos médicas y buscadores en línea, otros contaron también con el apoyo de ChatGPT-4 para guiar sus decisiones.

La interacción ineficaz con la
La interacción ineficaz con la IA es un reto destacado por los investigadores (Imagen Ilustrativa Infobae)

El análisis de los resultados reveló que los médicos asistidos por el chatbot no mostraron mejoras significativas frente a quienes solo usaron recursos tradicionales. Esto llevó a los investigadores a analizar más profundamente las interacciones entre los médicos y la IA, descubriendo patrones de resistencia y un uso subóptimo de la herramienta.

Resultados que desafían la tradición médica

El hallazgo más destacado fue la superioridad de ChatGPT-4 en solitario, que no solo demostró una mayor precisión en sus diagnósticos, sino que también fue más eficiente en términos de tiempo. Según el estudio, los médicos asistidos por el chatbot dedicaron, en promedio, 519 segundos por caso, mientras que aquellos sin IA tardaron 565 segundos. Sin embargo, el modelo por sí solo, no solo fue más rápido, sino también más certero, alcanzando el 92% en algunos casos específicos.

¿Por qué los médicos asistidos no lograron superar a la IA en solitario? Según los investigadores, el problema radica en la forma en que los médicos interactúan con estas herramientas. Muchos las trataron como simples motores de búsqueda, formulando preguntas específicas en lugar de aprovechar sus capacidades integrales. Solo una minoría utilizó estrategias más avanzadas, como copiar y pegar la historia clínica completa para obtener un análisis exhaustivo de ChatGPT-4.

Expertos enfatizan la necesidad de
Expertos enfatizan la necesidad de capacitación en inteligencia artificial en medicina (Imagen Ilustrativa Infobae)

“La IA fue sorprendentemente precisa, pero pocos médicos vieron su potencial completo”, señaló el Dr. Jonathan Chen, coautor del estudio y especialista en informática médica en la Universidad de Stanford. Este hallazgo subraya la necesidad de capacitar a los profesionales de la salud en el uso efectivo de la IA, no solo para agilizar procesos, sino para tomar mejores decisiones diagnósticas.

El reto de la confianza en la inteligencia artificial

Una barrera adicional para la adopción de la IA en la práctica clínica es la resistencia al cambio. Los médicos suelen aferrarse a sus primeras impresiones diagnósticas, incluso cuando la IA sugiere alternativas más precisas. Este fenómeno, conocido como “sesgo de anclaje”, ha sido ampliamente documentado en estudios de razonamiento clínico.

“La sobreconfianza es un problema común en el diagnóstico médico”, afirmó la investigadora Laura Zwaan, experta en errores diagnósticos del Centro Médico Erasmus, quien no participó en el estudio. Según Zwaan, este sesgo es un obstáculo crítico para aprovechar las ventajas de sistemas como ChatGPT-4.

La IA tiene potencial como
La IA tiene potencial como "extensor médico", pero no reemplaza la humanidad en el diagnóstico (Imagen Ilustrativa Infobae)

El estudio abre una ventana al potencial de la IA como “extensor médico”, capaz de ofrecer segundas opiniones valiosas y ayudar en casos complejos. Sin embargo, su integración efectiva dependerá de superar retos tanto tecnológicos como humanos. Por un lado, los desarrolladores deben optimizar las interfaces y adaptarlas a las necesidades clínicas. Por otro, es fundamental que las instituciones de salud promuevan la formación en inteligencia artificial como parte integral de la educación médica.

Aunque los resultados son prometedores, los autores del estudio advierten que la IA no puede sustituir la experiencia y el juicio humano en contextos clínicos. “Un chatbot no puede entrevistar a un paciente ni interpretar matices emocionales”, concluyó el Dr. Chen. Sin embargo, si se utiliza correctamente, puede ser un aliado poderoso en la reducción de errores diagnósticos y la mejora de la atención al paciente.

Este innovador estudio no solo desafía las nociones tradicionales de diagnóstico médico, sino que también marca un punto de inflexión en la colaboración entre humanos y máquinas. La pregunta no es si la inteligencia artificial reemplazará a los médicos, sino cómo puede complementarlos para ofrecer una atención más precisa, eficiente y equitativa. La integración de herramientas como ChatGPT-4 promete transformar la práctica clínica, siempre y cuando médicos e instituciones trabajen juntos para superar las barreras actuales.

Guardar