La empatía es fundamental para tener conversaciones de apoyo sobre la salud mental. Pero esta habilidad puede ser difícil de aprender, especialmente en el momento en que una persona comparte algo difícil. Un equipo dirigido por investigadores de la Universidad de Washington (UW) estudió cómo la inteligencia artificial podría ayudar a las personas en la plataforma TalkLife, donde algunos individuos se brindan apoyo de salud mental entre sí.
Los investigadores desarrollaron un sistema de IA que sugería cambios en las respuestas de los participantes para hacerlos más empáticos. El sistema ayudó a las personas a comunicar empatía de manera más efectiva que la capacitación tradicional. De hecho, las mejores respuestas fueron el resultado de una colaboración entre la IA y las personas. Los investigadores publicaron estos hallazgos en Nature Machine Intelligence.
Investigaciones anteriores sugieren que las plataformas de apoyo entre pares podrían tener un impacto positivo significativo en la atención de la salud mental porque ayudan a abordar el enorme desafío del acceso. Debido a problemas de seguros, estigma o aislamiento, muchas personas encuentran que las plataformas gratuitas de apoyo entre pares en línea son todo a lo que tienen acceso.
TalkLife es la plataforma de apoyo entre pares más grande del mundo y tiene una gran cantidad de colaboradores entusiastas para llevar la tarea adelante. “Ellos amablemente apoyaron nuestra investigación a través de la colaboración, la retroalimentación, el reclutamiento de participantes y el intercambio de datos”, indicó Tim Althoff, profesor asistente de la UW en la Escuela de Ciencias e Ingeniería Informática Paul G. Allen, y uno de los autores principales del documento.
Los especialistas insisten en que la empatía es fundamental para ayudar a las personas a sentirse apoyadas y para formar relaciones de confianza. Pero también es compleja y matizada. Puede ser un desafío para las personas encontrar las palabras correctas en el momento necesario. “Si bien los consejeros y terapeutas están capacitados en esta habilidad, nuestra investigación anterior estableció que los compañeros de apoyo pierden muchas oportunidades de responderse unos a otros con más empatía. También descubrimos que no aprenden a expresar empatía de manera más efectiva con el tiempo, lo que sugiere que podrían beneficiarse del entrenamiento y la retroalimentación en esta disciplina” contó Althoff.
Los científicos detectaron en su investigación que la retroalimentación de la IA puede ser muy específica y contextual, al mismo tiempo que puede brindar sugerencias sobre cómo responder de manera concreta a un mensaje al chatear con alguien. “Puede darle ideas a alguien de una manera personalizada en lugar de a través de ejemplos de capacitación genéricos o con reglas que pueden no aplicarse a cada situación que enfrentará una persona. También aparece solo si alguien lo necesita; si su respuesta es excelente, el sistema puede dar un ligero toque de retroalimentación positiva” siguió Althoff.
Los investigadores diseñaron el sistema desde cero para no restar valor a la interacción significativa persona-persona. Por ejemplo, solo muestran comentarios cuando es necesario y entrenaron al modelo para que realice los cambios más pequeños posibles en una respuesta para comunicar empatía de manera más efectiva.
IA con empatía
Para trabajar esta materia tan subjetiva los especialista sumaron a su estudio a dos psicólogos clínicos, Adam Miner de la Universidad de Stanford y David Atkins de la Facultad de Medicina de la UW. “Su trabajo fue determinante para comprender la investigación detrás de la empatía y adaptar las escalas de empatía existentes al entorno asincrónico basado en texto del soporte en línea en TalkLife. Luego hicimos que la gente anotara 10.000 respuestas de TalkLife para diferentes aspectos de la empatía y así desarrollar modelos de IA que puedan medir el nivel de empatía expresada en el texto” relató Althoff.
Para enseñar a la IA a brindar comentarios prácticos y sugerencias concretas, los especialistas desarrollaron un sistema basado en el aprendizaje por refuerzo. Estos dispositivos necesitan una gran cantidad de datos para ser entrenados. “Aunque la empatía no se expresa con tanta frecuencia como nos gustaría en plataformas como TalkLife, encontramos miles de buenos ejemplos. El sistema pudo aprender de ellos para generar comentarios de empatía útiles. El ensayo aleatorizado demostró que los compañeros de apoyo con acceso a comentarios expresaron entre un 20% y un 40% más de empatía que los seguidores del grupo de control que no tenían acceso a dichos comentarios. Entre los participantes, el 69% de los compañeros de apoyo informaron que se sienten más seguros al escribir respuestas de apoyo después de este estudio, lo que indica una mayor autoeficacia” afirmó Althoff.
“Los investigadores estudiaron más a fondo cómo los participantes hicieron uso de los comentarios y descubrieron que los compañeros de apoyo no se volvieron demasiado dependientes de la IA. Por ejemplo, usaban los comentarios indirectamente como una inspiración más amplia en lugar de seguir las recomendaciones a ciegas. También marcaron los comentarios en los pocos casos en que no fueron útiles o incluso inapropiados. Así la colaboración entre los humanos y los sistemas de IA condujera a mejores resultados que cualquiera de ellos por separado.” continuó el especialista.
También hicimos importantes esfuerzos que realizamos para considerar y abordar los riesgos éticos y de seguridad. Estos incluyen hacer que la IA trabaje con el compañero de apoyo en lugar de con la persona que actualmente está en crisis, realizar el estudio en un entorno similar que intencionalmente no está integrado en la plataforma de TalkLife, dar a todos los participantes acceso a una línea directa de crisis y permitir que los compañeros de apoyo marcar los comentarios para su revisión” concluyó Althoff.
Los coautores adicionales de este artículo fueron Ashish Sharma e Inna Lin, ambos estudiantes de doctorado de la Universidad de Washington en la Escuela Allen.
Seguir leyendo