¿El Chat GPT puede ayudar a los médicos en los diagnósticos? Qué dice la ciencia

Al analizar cinco casos distintos para un estudio científico, el chatbot demostró precisión en el razonamiento probabilístico, lo que sugiere un futuro donde la IA podría ser una herramienta complementaria para la medicina, según los expertos

ChatGPT-4, al ser probado en los mismos casos médicos que los profesionales de la salud, demostró una precisión diagnóstica considerable

(Ernie Mundell - HealthDay News) -- Los cerebros de los médicos son excelentes para tomar decisiones, pero incluso los médicos más inteligentes podrían beneficiarse de un poco de ayuda diagnóstica de ChatGPT, sugiere un estudio reciente.

El principal beneficio proviene de un proceso de pensamiento conocido como “razonamiento probabilístico”: conocer las probabilidades de que algo suceda (o no). ”Los humanos tienen dificultades con el razonamiento probabilístico, la práctica de tomar decisiones basadas en el cálculo de probabilidades”, explicó el autor principal del estudio, el Dr. Adam Rodman, del Centro Médico Beth Israel Deaconess, en Boston.

“El razonamiento probabilístico es uno de varios componentes de hacer un diagnóstico, que es un proceso increíblemente complejo que usa una variedad de estrategias cognitivas distintas”, explicó en un comunicado de prensa de Beth Israel. “Elegimos evaluar el razonamiento probabilístico de forma aislada, porque es un área bien conocida en la que los humanos podrían usar apoyo”.

El equipo de Beth Israel utilizó datos de una encuesta publicada anteriormente de 550 profesionales de la salud. A todos se les había pedido que realizaran un razonamiento probabilístico para diagnosticar cinco casos médicos distintos.

El razonamiento probabilístico, clave en el proceso diagnóstico médico, es una habilidad donde ChatGPT podría ofrecer un apoyo significativo a los profesionales de la salud (Imagen ilustrativa Infobae

Sin embargo, en el nuevo estudio, el equipo de Rodman dio los mismos cinco casos al algoritmo de IA de ChatGPT, el Gran Modelo de Lenguaje (LLM, por sus siglas en inglés), ChatGPT-4.

Los casos incluían información de pruebas médicas comunes, como una gammagrafía de tórax para neumonía, una mamografía para el cáncer de mama, una prueba de esfuerzo para la enfermedad de las arterias coronarias y un cultivo de orina para la infección del tracto urinario.

Con base en esa información, el chatbot utilizó su propio razonamiento probabilístico para reevaluar la probabilidad de varios diagnósticos de pacientes. De los cinco casos, el chatbot fue más preciso que el médico humano en dos; igualmente preciso para otros dos; y menos preciso para uno. Los investigadores consideraron esto un “empate” al comparar a los humanos con el chatbot para diagnósticos médicos.

Pero el chatbot ChatGPT-4 sobresalió cuando las pruebas de un paciente dieron negativo (en lugar de positivo), volviéndose más preciso en el diagnóstico que los médicos en los cinco casos.

"Los humanos a veces sienten que el riesgo es más alto de lo que es después de un resultado negativo de la prueba, lo que puede conducir a un tratamiento excesivo, más pruebas y demasiados medicamentos", apuntó Rodman. Es médico de medicina interna e investigador en el departamento de medicina de Beth Israel.

El estudio revela que ChatGPT-4 es particularmente eficaz en diagnósticos cuando las pruebas médicas resultan negativas (Getty)

El estudio aparece en la edición del 11 de diciembre de la revista JAMA Network Open. Es posible entonces que algún día los médicos trabajen en conjunto con la IA para ser aún más precisos en el diagnóstico de los pacientes, dijeron los investigadores.

Rodman calificó esa perspectiva de “emocionante”. ”Incluso si son imperfectos, la facilidad de uso [de los chatbots] y su capacidad para integrarse en los flujos de trabajo clínicos podrían, en teoría, hacer que los humanos tomen mejores decisiones”, dijo. “La investigación futura sobre la inteligencia humana y artificial colectiva es muy necesaria”.

Más información: Obtenga más información sobre IA y medicina en la Universidad de Harvard.

FUENTE: Centro Médico Beth Israel Deaconess, comunicado de prensa, 11 de diciembre de 2023

* Ernie Mundell HealthDay Reporters ©The New York Times 2023