Soy médico: el Chat GPT trata mejor a los pacientes que yo

Creía que el lado humano mantendría mi trabajo a salvo. Luego aparecieron los grandes modelos lingüísticos y se esfumó mi seguridad laboral

Guardar
ChatGPT (Reuters/Dado Ruvic)
ChatGPT (Reuters/Dado Ruvic)

Como joven e idealista estudiante de medicina en la década de 2000, pensaba que mi futuro trabajo como médico estaría siempre a salvo de la inteligencia artificial.

Por aquel entonces ya estaba claro que las máquinas acabarían superando a los humanos en la parte técnica de la medicina. Cada vez que buscaba en Google una lista de síntomas de una enfermedad rara, por ejemplo, la misma respuesta abstrusa que me costaba memorizar para los exámenes aparecía de forma fiable entre los primeros resultados.

Pero estaba seguro de que el otro lado de la práctica de la medicina, el lado humano, mantendría mi trabajo a salvo. Este lado requiere compasión, empatía y una comunicación clara entre médico y paciente. Mientras los pacientes siguieran siendo de carne y hueso, pensé, sus médicos también tendrían que serlo. Lo único que siempre tendría por encima de la inteligencia artificial eran mis modales.

Sin embargo, cuando aparecieron ChatGPT y otros grandes modelos lingüísticos, vi cómo se esfumaba mi seguridad laboral.

Estas nuevas herramientas destacan en el aspecto técnico de la medicina: las he visto diagnosticar enfermedades complejas y ofrecer elegantes planes de tratamiento basados en pruebas. Pero también son excelentes en la comunicación a pie de cama, elaborando un lenguaje que convence a los oyentes de que detrás de las palabras hay una persona real y atenta. En un estudio, las respuestas de los ChatGPT a las preguntas de los pacientes fueron calificadas de más empáticas (y también de mayor calidad) que las escritas por médicos reales.

Tal vez le parezca inquietante que la inteligencia artificial pueda tener mejores modales que los humanos. Pero la razón es que en medicina, como en muchos otros ámbitos de la vida, ser compasivo y considerado implica, en un grado sorprendente, seguir un guión preparado.

Empecé a entender esto en mi tercer año de medicina, cuando participé en una sesión de enseñanza sobre cómo dar malas noticias a los pacientes. Nuestro profesor representó a una paciente que había acudido a recibir los resultados de una biopsia de mama. Los estudiantes de medicina nos turnamos para comunicar a la paciente que la biopsia había revelado la presencia de cáncer.

Antes de esa sesión, pensaba que dar esas noticias era el aspecto más desalentador de la atención al paciente y el epítome del lado humano de la medicina. Dar malas noticias significa convertir la descripción técnica que hace un patólogo de la carne bajo el microscopio en una conversación cotidiana con la persona de cuya carne se trata. Supuse que todo lo que se requería de mí era ser humano y actuar como tal.

Pero el proceso resultó ser mucho más técnico de lo que esperaba. El profesor nos dio una lista de lo que había que hacer y lo que no: No le des la noticia al paciente nada más entrar en la habitación. Pero hay que ir al grano con relativa rapidez. Al dar el diagnóstico, no se escude en términos médicos como “adenocarcinoma” o “malignidad”; diga “cáncer”. Una vez comunicada la noticia, haga una pausa para que el paciente pueda asimilarla. No diga frases como “lo siento”, ya que el diagnóstico no es culpa suya. Considere la posibilidad de utilizar una frase del tipo “Ojalá”, como “Ojalá tuviera mejores noticias”. Pregunte al paciente qué sabe sobre el cáncer y proporciónele información, ya que mucha gente sabe poco aparte de que es malo.

(Imagen Ilustrativa Infobae)
(Imagen Ilustrativa Infobae)

Al principio me echó para atrás la idea de que la compasión y la empatía pudieran coreografiarse como un conjunto de pasos de baile marcados y numerados en el suelo. Pero cuando me tocó interpretar al médico, seguir las líneas memorizadas y las indicaciones de acción me pareció completamente natural. Para mi sorpresa, entregar mi humanidad a un guión hizo que el momento más difícil de la medicina me pareciera aún más humano.

De repente, los aspectos técnicos y humanos de la medicina no parecían tan distintos. De alguna manera, lo menos científico que aprendí en la facultad de medicina resultó ser lo más formulista.

En los años transcurridos desde entonces, he recitado versiones del guión de “malas noticias” a decenas de pacientes mientras trabajaba como médico de urgencias. Para los pacientes y sus familias, estas conversaciones pueden cambiarles la vida, pero para mí no es más que otro día de trabajo, un desajuste emocional colosal. Cuanto peor es el pronóstico, más ansiosamente busco esas líneas memorizadas para guiarme. Durante los breves minutos posteriores a conocer el diagnóstico, antes de volver a la habitación del paciente, ensayo la conversación, planifico mi enfoque y me aseguro de tener una caja de pañuelos cerca.

Hasta que la inteligencia artificial cambie por completo la asistencia sanitaria (y mi carrera), los médicos tendrán que trabajar en tándem con la tecnología. La inteligencia artificial puede ayudar a escribir notas de forma más eficiente en los historiales médicos. Y algunos médicos ya están utilizando líneas generadas por la inteligencia artificial para explicar mejor a los pacientes conceptos médicos complejos o el razonamiento que hay detrás de las decisiones de tratamiento.

A la gente le preocupa lo que significa ser un ser humano cuando las máquinas pueden imitarnos con tanta precisión, incluso al lado de la cama. La verdad es que los guiones preescritos siempre han estado profundamente entretejidos en el tejido de la sociedad. Ya se trate de saludos, oraciones, romances o política, todos los aspectos de la vida tienen lo que se debe y lo que no se debe hacer. Los guiones -lo que podríamos llamar “modales” o “convenciones”- lubrican los engranajes de la sociedad.

Al final, en realidad no importa si los médicos sienten compasión o empatía hacia los pacientes; sólo importa si actúan como tales. Del mismo modo, no importa que la inteligencia artificial no tenga ni idea de lo que estamos hablando. Existen fórmulas lingüísticas para la empatía y la compasión humanas, y no deberíamos dudar en utilizar las buenas, independientemente de quién -o qué- sea el autor.

Guardar