¿Se puede confiar en los médicos asistidos por inteligencia artificial?

Los sistemas de salud y sus profesionales enfrentan un dilema, según reseña en su informe The Washington Post: cómo adoptar estas tecnologías de manera responsable sin comprometer la seguridad del paciente

Guardar

La inteligencia artificial se integró rápidamente en el ámbito médico con la promesa de optimizar las tareas administrativas, aliviar la carga laboral de los profesionales y mejorar la relación médico-paciente. Sin embargo, su incorporación plantea preguntas críticas sobre confiabilidad e impacto en el ejercicio clínico. Un informe especial de The Washington Post detalla que aunque estas herramientas tecnológicas tengan un gran potencial para transformar la práctica médica, los riesgos asociados como la reproducción de errores y sesgos, generan incertidumbres en los pacientes.

En los últimos años, miles de médicos comenzaron a usar sistemas de IA para tareas rutinarias, como la transcripción de notas clínicas y la redacción de mensajes a pacientes. Un ejemplo destacado es el software DAX Copilot, desarrollado por Microsoft y Nuance, que captura las conversaciones durante las consultas médicas y genera resúmenes clínicos. Estas herramientas permiten a los médicos dedicar más tiempo a interactuar directamente con los pacientes, eliminando la necesidad de teclear en una computadora durante la consulta.

La velocidad con la que la medicina adoptó estas tecnologías refleja el ritmo de Silicon Valley (como sede de empresas informáticas) más que la tradicional prudencia basada en evidencia del sector. Según el doctor Adam Rodman, especialista en medicina interna y experto en IA en el Centro Médico Beth Israel Deaconess, aunque las herramientas son prometedoras, todavía no están listas para integrarse plenamente en el cuidado de los pacientes. “Corremos el riesgo de degradar lo que hacemos al introducir ‘basura alucinada’ de la IA en la atención médica crítica”, advirtió el experto.

(Imagen Ilustrativa Infobae)
(Imagen Ilustrativa Infobae)

Beneficios potenciales de la IA médica

La inteligencia artificial ofrece varias ventajas al personal médico, especialmente en el ámbito administrativo. Un beneficio destacado es la reducción del estrés laboral, que suele ser consecuencia de la creciente carga administrativa. De acuerdo con un estudio difundido por ACP Journals, algunos médicos dedican dos horas a tareas de oficina por cada hora de atención directa al paciente. Al automatizar tareas como la redacción de notas y la organización de datos, las herramientas de IA liberan tiempo y mejoran la calidad de las interacciones con los pacientes.

Un ejemplo concreto es el uso de asistentes virtuales para generar borradores de mensajes en respuesta a consultas de pacientes. Esto es particularmente relevante tras la pandemia de COVID-19, cuando la comunicación por correo electrónico entre médicos y pacientes aumentó significativamente. Estas herramientas permiten responder de manera más eficiente, reduciendo los tiempos de espera y evitando retrasos en el tratamiento.

Además, las aplicaciones de IA mejoraron aspectos del cuidado directo del paciente. Por ejemplo, el doctor Christopher Sharp, director de información médica en Stanford Health Care, destaca cómo el uso de inteligencia artificial para transcribir notas clínicas le permitió mantener contacto visual constante con sus pacientes. Y sobre ello, explicó en The Washington Post: “La meta no es solo mejorar la relación interpersonal, sino abordar el agotamiento causado por las tareas administrativas que afectan a los médicos”.

Diabetes, medicina, diabéticos, pacientes, glucosa,
Diabetes, medicina, diabéticos, pacientes, glucosa, azúcar en sangre, enfermedad, tipo 1, tipo 2 - (Imagen Ilustrativa Infobae)

Riesgos asociados al uso de IA en salud

Aunque las herramientas de inteligencia artificial ofrecen soluciones innovadoras al ámbito médico, también conllevan riesgos significativos que pueden comprometer la seguridad y eficacia de los tratamientos. Uno de los desafíos más preocupantes es la generación de respuestas erróneas o inapropiadas. Según otra investigación citada en el artículo de del Washington Post, el modelo ChatGPT proporcionó respuestas médicas inadecuadas en el 20% de los casos evaluados, lo que evidencia el potencial de la IA para difundir información médica imprecisa si no se supervisa apropiadamente.

Otro riesgo relevante radica en la capacidad de estas tecnologías para “alucinar”, es decir, generar información que no corresponde a los datos reales proporcionados. Esto puede ser especialmente problemático en el ámbito clínico, donde errores de transcripción o interpretación pueden influir negativamente en decisiones médicas críticas. Roxana Daneshjou, profesora de medicina y ciencia de datos en Stanford, destacó un caso en el que un sistema de IA recomendó medidas contrarias a las pautas médicas actualizadas para tratar la mastitis, como el uso de compresas calientes y masajes, cuando las recomendaciones actuales abogan lo contrario.

La falta de regulación también es un factor alarmante. Muchas de estas herramientas no requieren la aprobación de la Administración de Alimentos y Medicamentos (FDA), ya que no toman decisiones médicas de forma autónoma, puesto a que sirven como apoyo para los médicos. Aunque esto supone que los profesionales sean responsables de verificar cuidadosamente las recomendaciones de la IA, una tarea que no siempre se realiza con el rigor necesario.

El uso de IA en la comunicación con pacientes también plantea interrogantes. En una demostración realizada en Stanford Health Care, un sistema de IA sugirió tratamientos que un médico calificó como clínicamente inapropiados, lo cual subraya la importancia de que los profesionales revisen detenidamente las respuestas automatizadas. Ante estas tendencias, el doctor Christopher Sharp, afirmó: “Siempre edito lo que genera la inteligencia artificial para asegurarme de que sea clínicamente correcto”.

Guardar