Mis colegas y yo hemos realizado un estudio que indica que los modelos de lenguaje de gran tamaño (como ChatGPT) pueden hacer que las conversaciones en línea sean más productivas, reducir la incivilidad e incrementar la disposición a tener conversaciones difíciles a pesar de las diferencias sociales. Además, ya estamos viendo aplicaciones prácticas. Inspirada por esta investigación, Nextdoor, una plataforma de redes sociales basada en la comunidad, que ha luchado por combatir la toxicidad en línea, lanzó recientemente una iniciativa exitosa y a gran escala para reducir la incivilidad.
La mayoría de las personas no saben cómo manejar los conflictos. Sin embargo, las ciencias sociales han producido una gran cantidad de evidencias sobre la mediación de conflictos. Cuando las personas aprenden técnicas como la escucha activa o la toma de perspectiva, tienen más probabilidades de expresar sus opiniones. Pero este tipo de formación requiere mucho tiempo y dinero, y por lo general no llega a quienes evitan los conflictos.
En un estudio publicado recientemente en Proceedings of the National Academy of Sciences, mis colegas y yo examinamos si los modelos de lenguaje de gran tamaño pueden enseñar a las personas técnicas de mediación de conflictos. Reclutamos a un gran grupo de personas con opiniones diferentes sobre el control de armas, y las emparejamos (para que discutieran este tema con alguien que no compartiera su punto de vista) en una plataforma de chat en línea que construimos.
Después de intercambiar varios mensajes en nuestra plataforma, la mitad de los participantes del estudio comenzaron a recibir mensajes emergentes que sugerían frases alternativas para los mensajes que estaban a punto de enviar a su compañero de chat. Estas opciones emergentes utilizaban GPT-3 para reformular cada mensaje, utilizando principios de mediación de conflictos, sin cambiar la opinión expresada en ellas. Los participantes tenían la opción de enviar estas versiones reformuladas de su mensaje o ignorarlas.
Descubrimos que el GPT-3 es sorprendentemente bueno para facilitar conversaciones difíciles. Las personas cuyo compañero utilizó las reformulaciones generadas por IA describieron las conversaciones como más productivas, menos estresantes, y expresaron una mayor disposición a considerar puntos de vista alternativos. Aunque nuestra intervención mejoró la civilidad de las conversaciones en línea, no cambió de inmediato las actitudes de las personas sobre el control de armas. Pero tal vez eso sea algo bueno. Una IA que otorga a los usuarios un gran poder de persuasión podría causar estragos en las manos equivocadas.
Nuestro estudio se realizó un mes antes de que ChatGPT se lanzara públicamente. Además, solo examinamos si GPT-3 podía facilitar conversaciones sobre un único tema en un entorno un tanto artificial. Por lo tanto, la siguiente pregunta era obvia: ¿pueden estas mismas herramientas reducir los conflictos en el mundo real?
Si una iniciativa lanzada recientemente por Nextdoor sirve de guía, la respuesta a esa pregunta es sí. Una encuesta representativa a nivel nacional reveló recientemente que los conflictos abundan en Nextdoor. Si hay un espacio en línea en el que la IA generativa podría descarrilarse al intentar disuadir el conflicto, ese podría ser Nextdoor.
Sin embargo, en su último Transparency Report, NextDoor anunció algunos resultados impresionantes en relación con su uso de IA para mediar en los conflictos. Cuando la IA reformuló los mensajes desagradables que los usuarios estaban a punto de enviar, muchos optaron por utilizarlos, y algunos más se sintieron obligados a editar sus mensajes originales. Otros decidieron no enviar ningún mensaje. En última instancia, la intervención provocó un impresionante descenso del 15% en el contenido tóxico. Dada la cantidad de comunicación potencialmente controvertida que tiene lugar en el entorno laboral (como Slack, Microsoft Teams y otras plataformas de colaboración), especialmente en momentos de alta tensión social y política, podría ser el momento de que estas plataformas consideren añadir chatbots que puedan realizar intervenciones similares.