Una inteligencia artificial sería el nuevo terapeuta, esta es la propuesta de Microsoft

La compañía fundada por Bill Gates presentó una solicitud para patentar un chatbot orientado a ofrecer atención emocional

Guardar
Microsoft presentó una solicitud para
Microsoft presentó una solicitud para patentar un chatbot parecido a ChatGPT, aunque está orientado a ofrecer "atención emocional". (REUTERS/Dado Ruvic/Illustration/File Photo)

Microsoft realizó una interesante solicitud de patente en los Estados Unidos, la cual evidencia que la compañía fundada por Bill Gates se encuentra desarrollando una aplicación orientada a ofrecer tratamiento terapéutico y estará potenciada por inteligencia artificial.

En el documento que fue presentado el pasado 7 de noviembre, este gigante tecnológico con sede en Redmond plantea un modelo de chatbot similar a ChatGPT, el cual sería capaz de construir un perfil de usuario basado en señales emocionales extraídas de las imágenes y luego genera un registro de memoria basado tanto en estas imágenes como en el perfil de quien la usa.

Para la empresa de software, la “inteligencia artificial (IA) se está volviendo cada vez más popular y se aplica en un número cada vez mayor de escenarios”.

Ejemplo sobre como funcionaría el
Ejemplo sobre como funcionaría el terapeuta de inteligencia artificial planteado por Microsoft. (Microsoft)

Es por ello que la aplicación contará con una ventana de chat, un módulo de procesamiento y una base de datos de respuestas, y además será capaz de realizar pruebas psicológicas explícitas, así como realizar preguntas, monitorear respuestas y utilizarlas para aprender del paciente.

Microsoft busca que su terapeuta artificial proporcione “atención emocional” por medio de una conversación simulada, en la que los usuarios puedan usar texto, la voz e imágenes.

Un chatbot con capacidades terapéuticas

Ejemplo sobre como funcionaría el
Ejemplo sobre como funcionaría el terapeuta de inteligencia artificial planteado por Microsoft. (Microsoft)

El terapeuta artificial evaluará a los usuarios usando un “algoritmo de puntuación predefinido por psicólogos y expertos” y en algunos casos, el chatbot podrá hacer sugerencias sobre cómo abordar algunos problemas.

La empresa incluso expone el ejemplo de una conversación en la que una persona dice que se «siente mal» y la IA le pregunta por qué. Este explica que tiene problemas con la familia y por eso se siente cansado, el chatbot como respuesta, le recomienda salir a correr 30 minutos para tomar un respiro.

Y aunque es prometedor, este tipo de avances generan algunas preocupaciones en la Organización Mundial de la Salud (OMS), que pidió tener cuidado en el uso de chatbots de inteligencia artificial en la atención médica. Esto, advirtiendo que los datos usados para entrenar estos modelos pueden estar “sesgados” y generar información engañosa que puede causar daño a los pacientes.

Microsoft no es la primera tecnológica que decide apostar por este tipo de desarrollos y de hecho, Apple, también ha mostrado interés en la creación de un servicio de salud y bienestar basado en una inteligencia artificial capaz de detectar tus emociones.

El proyecto es llamado internamente Quartz que tendrá como objetivo incentivar a los usuarios a mejorar sus hábitos alimenticios, ejercitarse y brindar recomendaciones para dormir mejor.

Los peligros de la antropomorfización de la inteligencia artificial

Las personas pueden atribuir cualidades
Las personas pueden atribuir cualidades humanas a la IA e incluso algunos expertos ya consideran que antropomorfización de la inteligencia artificial es un fenómeno común en la sociedad actual. (Replika)

La constante interacción entre humanos y sistemas de inteligencia artificial o chatbots cada vez más avanzados, los cuales pueden dar la falsa sensación de entender y apoyar, ha provocado que algunos de sus usuarios generen fuertes vínculos con estos modelos que no tienen ningún tipo de emoción o generan algún tipo de empatía.

Y la antropomorfización de la IA es un proceso mediante el cual las personas atribuyen características y cualidades humanas a estos modelos, tratándolos como si fueran seres humanos reales. Esto incluye atribuir emociones, intenciones, pensamientos y una personalidad a la inteligencia artificial, a pesar de que estas no poseen estas características de manera genuina.

Además, puede ocurrir de manera consciente o inconsciente debido a que las interfaces de conversación y chatbots a menudo se diseñan para parecer más humanas, utilizando nombres, avatares y respuestas que imitan el lenguaje humano. Esto puede llevar a que los usuarios traten a la IA como si fuera un interlocutor humano y esperen respuestas emocionales.

De hecho, algunos chatbots se promocionan como compañeros de atención, fomentando relaciones de dependencia emocional con los usuarios. Esto plantea preguntas éticas sobre la manipulación y el abuso de la confianza del usuario, especialmente cuando la inteligencia artificial no puede proporcionar la empatía humana necesaria en momentos de crisis.

Guardar