¿El fin de los sicólogos o terapeutas? La IA da consejos y prende el debate mundial

ChatGPT es una de las plataformas que muchos usuarios tienen en cuenta al momento de desahogar sus problemas personales

El uso de ChatGPT ha beneficiado a varios usuarios porque siente una respuesta anónima. (Imagen Ilustrativa Infobae)

Uno de los usos más polémicos de la inteligencia artificial es la tendencia de usar herramientas como ChatGPT como sustitutos de la terapia psicológica. Si bien esta práctica ha encontrado diversos seguidores que destacan los beneficios de la IA en momentos de crisis o para la autorreflexión, expertos y los mismos desarrolladores han señalado sus limitaciones.

Este tipo de chatbots cuentan con una amplia variedad de temas aprendidos, que los usuarios y desarrolladores externos han adaptado sus interacciones para resolver este tipo de temas de salud mental.

Cómo ha sido el papel de la IA para ayudar a la salud mental

La historia de un asistente legal de Charleston, Carolina del Sur, captó la atención de los medios cuando decidió contarle sus problemas a ChatGPT tras faltar a una cita con su terapeuta. Según informó Bloomberg, el joven relató que se había acostumbrado a escribirle mensajes al chatbot de OpenAI cada vez que necesitaba desahogarse, obteniendo cierta liberación emocional de las respuestas generadas.

Aunque experiencias similares se han compartido ampliamente en redes sociales, los expertos advierten que estas interacciones no pueden reemplazar la terapia profesional.

El uso de ChatGPT ha beneficiado a varios usuarios porque siente una respuesta anónima. (REUTERS/Dado Ruvic/Illustration/File Photo)

Un ejemplo destacado es el de Shannon McNamara, creadora de contenido y anfitriona del pódcast “FluentlyForward”, quien reveló que suele usar ChatGPT cuando necesita ayuda para procesar pensamientos o buscar soluciones a problemas emocionales.

McNamara mencionó en una entrevista con Newsweek que, aunque las respuestas de la IA son extensas y variadas, le han resultado útiles en su vida diaria. A pesar de reconocer las preocupaciones sobre la privacidad, ella afirma que los beneficios, al menos para ella, superan los riesgos potenciales. “Quizá en cinco años, cuando los robots tomen el control, me arrepentiré de haber sido tan cruda con ChatGPT”, comentó, reflejando un enfoque cauteloso pero práctico.

La opinión de Sam Altman y la postura de OpenAI

Durante una sesión de AMA (Ask Me Anything) en el subreddit r/ChatGPT, Sam Altman, CEO de OpenAI, abordó la creciente tendencia de usar la IA para la autoayuda emocional. Altman reconoció que, aunque el chatbot no es un terapeuta, muchas personas han encontrado valor en compartir sus problemas con el chatbot. “Hemos visto a muchas startups explorar más en este ámbito; espero que alguien construya algo realmente bueno”, indicó.

El uso de ChatGPT ha beneficiado a varios usuarios porque siente una respuesta anonima. (REUTERS/Denis Balibouse/File Photo)

Sin embargo, el directivo no recomendó explícitamente este uso y subrayó que la herramienta no cumple con los estándares de cumplimiento de HIPAA, lo que significa que la privacidad de la información compartida no está completamente protegida. El CPO de OpenAI, Kevin Weill, añadió que la empresa está trabajando en la conformidad con HIPAA para su producto empresarial, aunque esto aún no es una realidad.

Limitaciones y riesgos del uso de ChatGPT en la terapia

La principal limitación de la IA en el ámbito terapéutico es su incapacidad para emular la empatía humana y establecer conexiones emocionales auténticas. Si bien ChatGPT y otros modelos de IA pueden generar respuestas que imitan el lenguaje empático, no pueden entender ni responder a las emociones de manera genuina.

Los psicoterapeutas subrayan que la capacidad de un profesional para interpretar y adaptarse a las emociones de un paciente es fundamental para un tratamiento eficaz. Rachel Goldberg, psicoterapeuta y fundadora de Rachel Goldberg Therapy, subraya que “uno de los aspectos más cruciales de una terapia exitosa es la conexión entre el terapeuta y el paciente”.

Esta conexión permite a los pacientes sentirse seguros y explorarse a sí mismos, lo cual es esencial para el crecimiento personal.

El uso de ChatGPT ha beneficiado a varios usuarios porque siente una respuesta anonima. (Imagen Ilustrativa Infobae)

El uso de la IA también presenta riesgos específicos, como errores en las respuestas y una falta de personalización profunda. ChatGPT puede producir información inexacta o incluso inventada, lo que puede ser potencialmente dañino para quienes lo usan como apoyo en situaciones de salud mental críticas.

Casos extremos, como el de un hombre en Bélgica que se quitó la vida después de una interacción con un bot de IA en 2023, ilustran las consecuencias potenciales de depender de estas tecnologías sin supervisión profesional.

A pesar de sus limitaciones, la IA ofrece ventajas en el ámbito del apoyo emocional. La accesibilidad global, el anonimato y la disponibilidad 24/7 hacen que herramientas como ChatGPT sean atractivas, especialmente en un contexto de crisis de salud mental. De acuerdo con la Organización Mundial de la Salud (OMS), uno de cada ocho individuos en el mundo padece algún trastorno mental, con la ansiedad y la depresión como las condiciones más comunes. La pandemia de COVID-19 exacerbó esta situación, aumentando en un 26% y 28% los casos de ansiedad y depresión, respectivamente, en solo un año.