Es posible que la IA no esté lista para administrar las salas de emergencia

Healthday Spanish

Guardar

MARTES, 8 de octubre de 2024 (HealthDay News) -- La IA aún no está lista para dirigir la sala de emergencias de un hospital, concluye un estudio reciente.

Es probable que ChatGPT pida radiografías y antibióticos innecesarios para algunos pacientes, y admita a otros que en realidad no necesitan tratamiento hospitalario, informaron los investigadores en la edición del 8 de octubre de la revista Nature Communications.

"Este es un mensaje valioso para que los médicos no confíen ciegamente en estos modelos", dijo el investigador principal, Chris Williams, becario postdoctoral de la Universidad de California, en San Francisco.

"ChatGPT puede responder a las preguntas de los exámenes médicos y ayudar a redactar notas clínicas, pero actualmente no está diseñado para situaciones que requieran múltiples consideraciones, como las situaciones en un departamento de emergencias", añadió Williams en un comunicado de prensa de la UCSF.

Para el nuevo estudio, los investigadores desafiaron al modelo de IA de ChatGPT para proporcionar el tipo de recomendaciones que haría un médico de emergencias después de examinar inicialmente a un paciente.

El equipo analizó datos de 1.000 visitas anteriores a la sala de emergencias más allá de la IA, extraídos de un archivo de más de 251.000 visitas.

La IA tuvo que responder "sí" o "no" en cuanto a si cada paciente debía ser admitido, enviado a radiografías o recetado antibióticos.

En general, ChatGPT tendía a recomendar más servicios de los que realmente se necesitaban, mostraron los resultados.

El modelo de ChatGPT-4 fue un 8% menos preciso que el de los médicos humanos, y el de ChatGPT-3.5 fue un 24% menos preciso.

Esta tendencia a recetar en exceso podría explicarse por el hecho de que los modelos de IA se entrenan en internet, dijo Williams. Los sitios de asesoramiento médico legítimos no están diseñados para responder preguntas médicas de emergencia, sino para derivar a los pacientes a un médico que pueda hacerlo.

"Estos modelos están casi ajustados para decir: 'busque consejo médico', lo cual es bastante correcto desde una perspectiva de seguridad pública general", dijo Williams. "Pero pecar de precavido no siempre es apropiado en el entorno de los servicios de urgencias, donde las intervenciones innecesarias podrían causar daño a los pacientes, agotar los recursos y conducir a costos más altos para los pacientes".

Para ser más útiles en la sala de emergencias, los modelos de IA necesitarán mejores marcos construidos por diseñadores que puedan enhebrar la aguja entre la detección de enfermedades graves y al mismo tiempo no pedir exámenes y tratamientos innecesarios, dijo Williams.

"No hay una solución perfecta", dijo, "pero sabiendo que modelos como ChatGPT tienen estas tendencias, tenemos la responsabilidad de pensar en cómo queremos que se desempeñen en la práctica clínica".

Más información

La Clínica Cleveland ofrece más información sobre la IA en la atención médica.

FUENTE: Universidad de California, San Francisco, comunicado de prensa, 8 de octubre de 2024

Guardar