¿La IA puede alertar sobre problemas de salud mental?

La inteligencia artificial es una herramienta que podría tener el potencial de mejorar la detección y el tratamiento de problemas de salud mental en etapas tempranas

Guardar

Nuevo

La inteligencia artificial se está utilizando de diversas maneras para ayudar a mejorar la salud mental de las personas. - (Imagen Ilustrativa Infobae)
La inteligencia artificial se está utilizando de diversas maneras para ayudar a mejorar la salud mental de las personas. - (Imagen Ilustrativa Infobae)

En 1972, un psiquiatra de Stanford llamado Kenneth Colby creó Parry, un programa que intentaba simular el lenguaje de una persona con esquizofrenia paranoide, para capacitar a los estudiantes antes de que atendieran a pacientes reales y familiarizarlos con el lenguaje y la forma de pensar de estos pacientes.

El éxito de Parry en simular la esquizofrenia paranoide fue tal que incluso fue capaz de “aprobar” la prueba de Turing, un test diseñado por el matemático Alan Turing para evaluar si una máquina puede exhibir un comportamiento inteligente indistinguible del de un ser humano.

Ahora, los investigadores de la Universidad de Oxford están explorando cómo la IA podría usarse para predecir problemas de salud mental en un futuro cercano. “Hablar con jóvenes puede ayudarnos a entender sus perspectivas y avanzar para brindar un servicio informativo, útil y productivo”, explicó Ella Arensman, profesora de Neurociencia y Sociedad en una nota publicada por la agencia de noticias EFE.

¿La IA puede ayudar a la salud mental?

Aun con el avance, su implementación debe ser cuidadosa y ética para maximizar sus beneficios.
Aun con el avance, su implementación debe ser cuidadosa y ética para maximizar sus beneficios.

Jessica Lorimer, asistente de investigación del Departamento de Psiquiatría, explicó que uno de los métodos utilizados ahora se llama fenotipado digital, y utiliza la inteligencia artificial para recolectar y analizar datos de dispositivos móviles, como la actividad física o la ubicación, con el objetivo de predecir problemas de salud mental.

El doctor Matthew Nour, autor principal y conferencista clínico del Instituto Nacional de Investigación en Salud y Atención de Gran Bretaña (NIHR, por sus siglas en inglés), comentó que en realidad, el diagnóstico y evaluación psiquiátrica son en mayoría resultado de la plática con los pacientes y sus allegados, por lo que las pruebas automatizadas, “como los análisis de sangre y los escáneres cerebrales, desempeñan un papel mínimo”, pero que ahora con el uso de aplicaciones como Chat GPT se pueden arribar muestras más amplias de pacientes.

“Hasta hace muy poco, el análisis automático del lenguaje ha estado fuera del alcance de médicos y científicos. Sin embargo, con la llegada de modelos lingüísticos como Chat GPT, nuestro equipo planea utilizar esta tecnología en una muestra más amplia de pacientes y en entornos del habla más diversos, para comprobar si pudiera resultar útil en la clínica”, añade Nour.

A pesar de ello, este avance pone de nuevo el dilema sobre la mesa basado en el consentimiento y el derecho a la privacidad, especialmente en el caso de los menores de edad. “Si se determina que un joven está en riesgo, ¿quién debería tener derecho a saber esa información: sus padres, sus maestros, la escuela, su médico?”, se cuestionó Jessica Lorimer. En ese sentido, un estudio de Oxford llamado What Lies Ahead está investigando las actitudes éticas de los adolescentes de 16-17 años hacia las pruebas predictivas de salud mental. Gabriella Pavarini, investigadora postdoctoral, explica que el posible impacto psicológico futuro de recibir un diagnóstico predictivo representaba una gran preocupación para este grupo.

Empresas como Facebook ya están utilizando IA para detectar publicaciones que puedan indicar riesgo de suicidio y enviarlas a moderadores humanos para su revisión. Si se considera que la persona está en riesgo, se puede contactar a los servicios de emergencia para hacer un “chequeo de bienestar”.

Según The New Yorker, si bien el uso de IA por parte de Facebook para prevenir el suicidio es un avance, también plantea interrogantes éticos, sobre todo porque el mero hecho de recibir un diagnóstico a menudo no conlleva un riesgo tan inmediato, lo que plantea la pregunta de si los usuarios estarían dispuestos a sacrificar su privacidad para detectar problemas de salud mental en etapas tempranas.

¿Qué puede hacer la IA por la salud mental?

La IA tiene un potencial significativo para mejorar la salud mental de los jóvenes al facilitar el acceso a recursos, detectar problemas tempranamente y ofrecer apoyo emocional.
La IA tiene un potencial significativo para mejorar la salud mental de los jóvenes al facilitar el acceso a recursos, detectar problemas tempranamente y ofrecer apoyo emocional.

Además de este estudio y las aplicaciones que ya usan las redes sociales, lo cierto es que la inteligencia artificial se está utilizando de diversas maneras para ayudar a mejorar la salud mental de los jóvenes, abordando tanto la detección de problemas como el acceso a recursos de apoyo. A continuación se detallan algunas de las aplicaciones más relevantes:

Los sistemas de IA pueden analizar datos de comportamiento en línea y en la vida diaria para alertar a profesionales de la salud sobre cambios significativos que podrían indicar problemas mentales, como pensamientos suicidas.

Algunas otras herramientas permiten a los jóvenes interactuar con chatbots que simulan conversaciones terapéuticas. Estas plataformas pueden recibir millones de mensajes de usuarios que buscan apoyo emocional, lo cual también puede eliminar obstáculos como el estigma de acercarse a un psicólogo y la falta de información sobre recursos disponibles.

La IA también puede ser utilizada para educar a los jóvenes sobre la salud mental, ayudando a desmitificar los trastornos mentales y fomentar un diálogo abierto sobre el bienestar emocional.

Pese a los alcances de esta tecnología, aún hay cuestiones que deben revisarse para que su uso sea ético y responsable. Un estudio de la Organización Mundial de la Salud (OMS) encontró importantes deficiencias en la forma en que se está utilizando la IA en la investigación sobre salud mental. Además, el estudio detectó fallos importantes en el manejo de las estadísticas, poca validación de los datos y escasa evaluación del riesgo de sesgo. Por ejemplo, si se sabe que ciertos grupos étnicos tienen menos acceso a la atención médica, los algoritmos basados en esos datos podrían ser menos precisos para diagnosticar problemas de salud mental en esas poblaciones.

Es crucial que los jóvenes y los profesionales de la salud sean conscientes de las limitaciones de la IA y utilicen estas herramientas como complemento, no como sustituto, de la atención profesional.

Guardar

Nuevo

Últimas Noticias