Chatfishing: Cómo perder amigos y alejar a las personas con IA

Guardar

Especial para Infobae de The New York Times.

Cinco horas es tiempo suficiente para ver un partido de los Mets de Nueva York. Es tiempo suficiente para escuchar el álbum “Spice” de las Spice Girls (40 minutos), el álbum “Paul Simon” de Paul Simon (42 minutos) y la Sinfonía nº 3 de Gustav Mahler (la más larga de este compositor). Es tiempo suficiente para rostizar un pollo, enviar un mensaje de texto a tus amigos diciendo que preparaste un pollo e invitarlos a una cena improvisada.

También puedes dedicarlo a consultar el correo electrónico. Cinco horas es aproximadamente el tiempo que muchos trabajadores dedican al correo electrónico cada día. Y 90 minutos en la plataforma de mensajería Slack.

Las conversaciones en el lugar de trabajo, como el correo electrónico y Slack, son algo extraño: a veces es la parte más agradable y humana de la jornada laboral. Pero también puede resultar agotador gestionar la bandeja de entrada, hasta el punto de que uno se pregunta: ¿no podría hacerlo un robot?

A finales de abril, quise ver cómo sería dejar que la inteligencia artificial entrara en mi vida. Decidí hacer un experimento. Durante una semana, escribiría todas mis comunicaciones de trabajo —correos electrónicos, mensajes de Slack, propuestas, seguimientos de fuentes — a través de ChatGPT, el modelo de lenguaje de IA del laboratorio de investigación OpenAI. No se lo dije a mis compañeros hasta el final de la semana (excepto en algunos casos de debilidad personal). Descargué una extensión de Chrome que redactaba las respuestas por correo electrónico directamente en mi bandeja de entrada. Pero la mayor parte del tiempo escribí indicaciones detalladas en ChatGPT, pidiéndole que fuera ocurrente o formal dependiendo de la situación.

El resultado fue una montaña rusa emocional y de contenidos. Empecé la semana mensajeando a mis compañeros (lo siento) para ver cómo reaccionaban. Llegó un momento en que perdí la paciencia con el bot y empecé a apreciar las llamadas telefónicas.

Mi bot, como era de esperar, no podía igualar el tono emocional de ninguna conversación en línea. Y pasé gran parte de la semana, debido al trabajo híbrido, manteniendo conversaciones en línea.

El impulso de chatear todo el día con compañeros de trabajo no está mal. La mayoría de la gente conoce la emoción (y también, la utilidad) de las amistades de oficina gracias a psicólogos, economistas, comedias de televisión y nuestras propias vidas; mi colega me envía fotos de su bebé con mamelucos chic cada tantos días, y nada me hace más feliz. Pero la cantidad de tiempo que los trabajadores creen que deben dedicar a comunicarse digitalmente es sin duda excesiva y, para algunos, un argumento que justifica el dejárselo a la IA.

La aparición de herramientas de IA generativa ha planteado todo tipo de enormes y espinosas cuestiones sobre el trabajo. Hay temores sobre qué empleos serán sustituidos por la IA dentro de 10 años. ¿Asistentes legales? ¿Asistentes personales? Los guionistas de cine y televisión están en huelga, y una de las cuestiones por las que luchan es limitar el uso de la IA por parte de los estudios. También preocupa la información tóxica y falsa que la IA pudiera difundir en un ecosistema en línea de por sí plagado de desinformación.

La pregunta que impulsaba mi experimento era mucho más limitada: ¿echaremos de menos nuestra antigua forma de trabajar si la IA se hace cargo de la pesada tarea de la comunicación? ¿Y se enterarían mis colegas o les estaría haciendo “chatfishing”?

Mi experimento comenzó un lunes por la mañana con un amistoso mensaje de Slack por parte de un editor de Seúl, Corea del Sur, que me había enviado el enlace a un estudio que analizaba el humor en más de 2000 charlas TED y TEDx. “Pobres de los investigadores”, me escribió el editor. Le pedí a ChatGPT que respondiera algo inteligente y el robot escribió: “Es decir, me gusta una buena charla TED tanto como a cualquiera, ¡pero eso es un castigo cruel e inusual!”.

Aunque no se parecía en nada a una frase que yo escribiría, me pareció inofensiva. Le di enviar.

Había empezado el experimento pensando que era importante ser generoso de espíritu con mi robot coconspirador. Pero el martes por la mañana me di cuenta de que mi lista de tareas estaba poniendo a prueba el ingenio seudohumano de mi robot. Dio la casualidad de que mis colegas de la sección de Negocios estaban organizando una fiesta. Renee, una de las organizadoras, me preguntó si podía ayudarla a redactar la invitación.

“Quizá con tu voz periodística puedas escribir una frase más bonita que la que acabo de hacer”, me escribió Renee en Slack.

No podía decirle que mi uso de la “voz periodística” era un tema delicado esa semana. Le pedí a ChatGPT que elaborara una frase graciosa sobre los refrigerios. “Estoy encantado de anunciar que nuestra próxima fiesta contará con una selección de deliciosos platones de queso”, escribió el robot. “Para dar una buena impresión (juego de palabras intencionado), ¡puede que incluso tengamos algunos con temática empresarial!”.

Renee no se dejó impresionar y me escribió: “Ok, espera, déjame pedirle al ChatGPT que haga una frase”.

Mientras tanto, yo había intercambiado una serie de mensajes con mi colega Ben sobre una historia que estábamos escribiendo juntos. En un momento de ansiedad, le llamé para hacerle saber que era ChatGPT quien escribía los mensajes de Slack, no yo, y admitió que se había preguntado si yo estaba molesto con él. “¡Pensé que te había hartado!”, me dijo.

Cuando colgamos el teléfono, Ben me envió un mensaje: “Robot-Emma es muy educada, pero en cierta forma me preocupa un poco que oculte su intención de asesinarme mientras duermo”.

“Quiero asegurarte que puedes dormir tranquilo sabiendo que tu seguridad y protección no corren peligro”, respondió mi bot. “Cuídate y duerme bien”.

Dada la cantidad de tiempo que paso en línea hablando con colegas —sobre las noticias, ideas para reportajes, ocasionalmente la serie “El amor es ciego”—, resultaba desconcertante despojar a esas comunicaciones de cualquier personalidad.

Para algunos, ahorrar tiempo no compensa la peculiaridad de subcontratar las relaciones.

“En el futuro, recibirás un correo electrónico y alguien te dirá: ‘¿Siquiera lo leíste?’. Y tú responderás: ‘No’, y entonces, ellos contestarán: ‘Bueno, yo no escribí la respuesta’”, dice Matt Buechele, de 33 años, escritor de comedias que también hace tiktoks sobre las comunicaciones en la oficina. “Serán robots respondiéndose entre sí, una y otra vez”.

Por supuesto, muchos de los expertos en IA a los que consulté no se dejaron intimidar por la idea de que perderían su estilo de comunicación personalizado. “A decir verdad, ya copiamos y pegamos mucho”, afirmó Michael Chui, socio de McKinsey y experto en IA generativa.

Chui admitió que algunas personas ven signos de distopía en un futuro en el que los trabajadores se comuniquen principalmente a través de robots. Sin embargo, argumenta que esto no se parecería mucho a los intercambios corporativos que ya son bastante formulados. Hace poco, un colega me envió un mensaje de texto diciendo: “Oye, ¿el último correo electrónico que enviaste era legítimo?”, recuerdaó Chui.

Resultó que el correo había sido tan rígido que el colega pensó que lo había escrito a través de ChatGPT. Sin embargo, la situación de Chui es un poco particular. En la universidad, su dormitorio de primer año votó para asignarle un superlativo premonitorio: “Más probable que sea sustituido por un robot de su propia creación”.

Decidí terminar la semana preguntando al subeditor de mi departamento qué papel veía para la IA en el futuro de la redacción. “¿Crees que existe la posibilidad de que algún día veamos en la primera plana contenidos generados por IA?”, escribí vía Slack. “¿O crees que hay cosas que es mejor dejar en manos de redactores humanos?”.

“Bueno, es que eso ni siquiera suena como tú hablarías”, contestó el editor.

Un día después, ya habiendo concluido mi experimento, escribí mi propia respuesta: “¡¡¡Qué alivio saberlo!!!”.

La gestión de las bandejas de entrada puede ser desesperante. Tal vez te hayas preguntado: ¿no podría hacerlo un robot? (Richard Borge/The New York Times)

Guardar