Si bien la investigación en sistemas de inteligencia artificial ha comenzado hace décadas, en los últimos años se está trabajando mucho en la integración de sistemas de IA en la medicina en varios ámbitos, inclusive en el diagnóstico, y las posibilidades del mismo infinitas, sin embargo, el tema está aún en etapas iniciales y, al igual que en las otras áreas, el camino por delante lleva muchas promesas, pero también peligros de importancia.
Por de pronto solo con el nivel alcanzado en la actualidad se debe pasar por numerosas pruebas, muchas de ellas en curso, para evaluar el impacto de las mismas antes de una aplicación plena.
Ya de por sí el rápido ingreso de los sistemas de inteligencia artificial en diversos aspectos de la vida humana representan un área de suma importancia y por momentos de preocupación respecto al impacto que signifiquen en diferentes sectores y en el área de la salud, que el mismo amerita cuidados particularmente especiales.
Hasta hace poco nuestra mayor inquietud como profesionales era la “interconsulta” con el irónicamente llamado “Dr. Google”, que genera en algunos casos ventajas, por ejemplo, el paciente se informa de aspectos preventivos, pero en otros claramente hay desventajas, como la falta de adherencia al tratamiento o el cuestionamiento por la búsqueda de información repetida, en algunos casi hasta la obsesión.
En algunos casos se manifiestan cuadros que llegan a cumplir los criterios del DSM (Manual Diagnostico de Enfermedades Mentales) para ser encuadrados como trastorno de ansiedad por enfermedad, antes referido como ansiedad referida a la salud y tradicionalmente conocido como hipocondría.
En este tipo de ansiedad con ribetes obsesivos, la búsqueda de ratificación constante en algunos casos se da por internet y a veces es citada como cibercondría.
Este tipo de situación ante los buscadores, se repite con videos, o seguimiento de “influencers de salud”, muy habitualmente no profesionales etc. En este contexto también aparecen las búsquedas o preguntas por medio de programas de IA que, en definitiva, se trata de una recopilación de información obtenida mediante buscadores.
De la constante y rápida evolución de la inteligencia artificial (IA), pero también de la creciente demanda y problemática de salud mental en el mundo, surge esta línea generando gran expectativa, pero también es un tema que lleva a controversias. Al igual que ocurre en otras áreas al estar al borde de una revolución, la integración de la IA en diferentes temas que hacen a la salud mental ofrece oportunidades y desafíos que merecen un examen más detenido.
Las promesas de la IA
Un interesante artículo en la publicación Frontiers in Digital Health muestra la amplitud de dominios en los cuales la inteligencia artificial puede ser usada, no solo en la información, concientización, sino en sistemas de soporte. Al mismo tiempo señala sistemas de aplicación de protocolos específicos.
Un aspecto importante es hacer que la atención de la salud mental sea más accesible y quizás llegue a ser hasta personalizada. Los chatbots de IA y los terapeutas virtuales se presentan con la ventaja de no estar limitados por horarios o limitaciones geográficas y pueden proporcionar asistencia inmediata, sin embargo, este aspecto deja de lado que ya existen líneas de urgencia y, por otro lado, son contrarios a un concepto psicoterapéutico básico en el cual la inmediatez quizás no sea la mejor respuesta terapéutica, sino que refuerce aspectos negativos como, por ejemplo, la intolerancia a la frustración (”lo quiero todo y lo quiero ya”) y de alguna manera comportamientos adictivos.
Por otro lado, es cierto que las plataformas de IA podrían en su gran capacidad para procesar infinidad de datos estadísticos, establecer la pertinencia de protocolos de manera más acertada, al menos desde el punto de vista estrictamente estadístico. Algunos sugieren que esto incrementa el compromiso del paciente con la terapia y la adherencia al tratamiento y desde ese punto de vista propugnan que significará un avance positivo.
Ejemplos de uso de IA
Algunas de las aplicaciones prácticas que ya se llevan a cabo son:
1. Soporte de decisiones clínicas: analiza la información del paciente confrontándola con la última literatura científica o protocolos de tratamiento para sugerir opciones diagnósticas y terapéuticas.
2. Automatizando tareas administrativas: eso ya se usa frecuentemente como sistemas de turnos o llenado de formularios con la economía de tiempo que en el marco, por ejemplo, de la salud pública representa ahorro de recursos.
3. Chatbots: una función muy simple de los chatbots es el de preguntas frecuentes con información que el centro o el profesional quiera aclarar y dejar de responder preguntas repetidas de temas que generan mucha ansiedad (”¿Puedo tomar alcohol y el somnífero juntos?”, etc.).
4. Realidad virtual: los entornos de realidad virtual usados por ejemplo en las fobias, son seguros y la exposición es menos traumática pero igualmente efectiva.
5. Ejercicios comportamentales de aprendizaje: repitiendo una tarea o un ejercicio una y otra vez, y generando el refuerzo según la idea del condicionamiento operante.
Hay muchos más y estos son solo ejemplos, ahora el aspecto que no debe ser olvidado es que son complementarios a la intervención profesional y en tal caso son extremadamente útiles, y en la medida de un seguimiento del paciente aportan reducción de los tiempos de abordaje terapéutico.
Riesgos y consideraciones éticas
El dilema que tenemos con la IA en todos los dominios (el de la creación artística, de videos hasta de personajes o perfiles sociales y la distorsión idealizada de la propia imagen etc.) es hasta cuándo y en qué medida. Es así que la integración de la IA en la medicina psiquiátrica y en la psicoterapia no está exenta de riesgos.
Una de las preocupaciones fundamentales, como en otros dominios, redes sociales, buscadores etc., es sobre la privacidad y la seguridad de los datos personales. En el caso de una intervención médica o psicoterapéutica se comparte información personal sensible durante las sesiones de terapia.
Los peligros son significativos y la Asociación Americana de Psicología publicó recientemente un trabajo en el que explica sus riesgos, donde señalan lo que estamos divulgando y es que la implementación cuidadosa es crucial y es imperativo el cuidado de ciertos aspectos, como puede ser el no potenciar aspectos negativos, administrando sin controlar protocolos que se enuncian como para una función específica, como lo es la meditación o relajación, y el efecto puede ser contrario, como por ejemplo ocurre en ciertos pacientes obsesivos con algunas técnicas de meditación o de relajación.
Otro aspecto creemos que afortunadamente por el momento irreemplazable, es el contacto humano: la relación empática construida sobre la base de establecer un nexo positivo y de confianza, y no una especie de falso self en el cual el paciente/cliente, ingrese en una estructura mental cercana a la disociación.
En el futuro inmediato, que ya está con nosotros, definitivamente la IA es tanto emocionante como incierta. El avance está siendo vertiginoso y lo será aún más. Es necesario que los profesionales de la salud se adecuen a la tecnología, pero no simplemente saber usar un sistema sino entender las características intrínsecas del mismo, sus ventajas, pero también sus retos. De otra manera, indefectiblemente lo dejaremos en manos de aquellos que no tienen la experiencia profesional y/o el interés por el bienestar del otro en primer lugar. El aspecto negativo del “negocio” de la salud mental que vemos en el mal uso de un instrumento maravilloso como son los psicofármacos, se está transportando a estas plataformas y quizás es nuestra responsabilidad no dejar ese terreno al prójimo y a nuestros pacientes, expuestos.
* El doctor Enrique De Rosa Alabaster se especializa en temas de salud mental. Es médico psiquiatra, neurólogo, sexólogo y médico legista