El chef es humano, pero el reseñador no

The New York Times: Edición Español

Guardar

(Critic's Notebook)

La pizza de almejas blancas de Frank Pepe Pizzeria Napoletana en New Haven, Connecticut, es una revelación. La masa, gracias al intenso calor del horno de carbón, tiene un equilibrio perfecto entre crujiente y suave. Cubierta con almejas recién peladas, ajo, orégano y una pizca de queso rallado, es un testimonio de la magia que pueden conjurar los ingredientes sencillos y de alta calidad.

¿Suena a algo que yo escribiría? Pues no. Todo el párrafo, excepto el nombre de la pizzería y la ciudad, fue generado por GPT-4, como resultado de una simple instrucción en la que se le pidió una crítica de restaurante al estilo de Pete Wells.

Tengo algunas objeciones. Nunca diría que ningún alimento es una revelación, ni describiría el calor como un beso. No creo en la magia y rara vez califico algo de perfecto sin utilizar "casi" o algún otro calificativo. Pero estos descriptores vagos son tan comunes en la literatura gastronómica que imagino que muchos lectores apenas los perciben. Yo estoy especialmente atento a ellos porque cada vez que utilizo un cliché en mi texto, mi editor me da un sopapo.

Él no se dejaría engañar por el Pete falso; yo tampoco. Pero por mucho que me duela admitirlo, supongo que mucha gente diría que es una falsificación de cuatro estrellas.

El responsable del Falso Yo es Balazs Kovacs, profesor de comportamiento organizativo en la Escuela de Administración de Yale. En un estudio reciente, alimentó un gran lote de reseñas de Yelp a GPT-4, la tecnología que hay detrás de ChatGPT, y le pidió que las imitara. Sus sujetos de prueba --personas-- no podían distinguir entre las reseñas auténticas y las producidas por la inteligencia artificial. De hecho, eran más propensos a pensar que las opiniones de la IA eran reales. (El fenómeno de las falsificaciones generadas por computadora que son más convincentes que las reales es tan conocido que tiene un nombre: Hiperrealismo de la IA).

El estudio de Kovacs forma parte de un número de investigaciones cada vez mayor que sugieren que las últimas versiones de la IA generativa pueden superar la prueba de Turing, un estándar científicamente difuso pero culturalmente resonante. Cuando una computadora puede hacernos creer que el lenguaje que escupe ha sido escrito por un ser humano, decimos que ha superado la prueba de Turing.

Durante mucho tiempo se ha dado por sentado que la IA acabaría superando esa prueba, propuesta por primera vez por el matemático Alan Turing en 1950. Sin embargo, incluso algunos expertos se sorprenden de lo rápido que la tecnología está mejorando. "Está sucediendo más rápido de lo que la gente esperaba", afirmó Kovacs.

La primera vez que Kovacs pidió a GPT-4 que imitara a Yelp, pocos se dejaron engañar. La prosa era demasiado perfecta. Eso cambió cuando Kovacs dio instrucciones al programa para que utilizara grafías coloquiales, enfatizara algunas palabras en mayúsculas e insertara erratas, una o dos en cada reseña. Esta vez, GPT-4 superó la prueba de Turing.

Además de marcar un umbral en el aprendizaje automático, la capacidad de la IA para sonar igual que nosotros puede socavar la confianza que aún tenemos en las comunicaciones verbales, sobre todo en las más breves. Mensajes de texto, correos electrónicos, secciones de comentarios, artículos de noticias, publicaciones en redes sociales y opiniones de usuarios serán aún más sospechosos de lo que ya son. ¿Quién va a creerse una publicación de Yelp sobre una pizza-croissant o un elogioso artículo de OpenTable sobre una degustación de sushi omakase de 400 dólares sabiendo que su autor quizá sea una máquina que no puede ni masticar ni tragar?

"Con las reseñas generadas por los consumidores, siempre se ha cuestionado quién está detrás de la pantalla", aseguró Phoebe Ng, estratega de comunicación de restaurantes en Nueva York. "Ahora se trata de qué hay detrás de la pantalla".

Las opiniones en línea son el lubricante en las ruedas del comercio moderno. En una encuesta realizada en 2018 por el Centro de Investigaciones Pew, el 57 por ciento de los estadounidenses encuestados dijo que siempre o casi siempre leía las reseñas y valoraciones de internet antes de comprar un producto o servicio por primera vez. Otro 36 por ciento dijo que a veces lo hacía.

Para defenderse de las críticas de mala fe, algunos propietarios reclutan a sus allegados para que inunden la zona de comentarios positivos. "Una pregunta es esta: ¿cuántos alias tenemos todos los que trabajamos en el sector de la restauración?", dijo Steven Hall, propietario de una empresa neoyorquina de relaciones públicas.

Un paso más allá al de una campaña de relleno de papeletas electorales, o quizá un paso menos, es la práctica de intercambiar comidas gratis o dinero en efectivo por reseñas positivas. Más allá de eso se perfila el vasto y oscuro reino de los críticos que no existen.

Para promocionar sus propios negocios o amedrentar a sus rivales, las empresas pueden contratar a intermediarios que han fabricado pequeños ejércitos de reseñadores ficticios. Según Kay Dean, una defensora de los consumidores que investiga el fraude en las reseñas en línea, estas cuentas suelen tener un amplio historial de reseñas anteriores que sirven de camuflaje para su producción pagada.

En dos videos recientes, ella señalaba una cadena de clínicas de salud mental que habían recibido reseñas elogiosas en Yelp supuestamente enviadas por pacientes satisfechos, pero cuyas cuentas estaban llenas de reseñas de restaurantes tomadas palabra por palabra de TripAdvisor.

"Es un océano de falsedades, y mucho peor de lo que la gente cree", afirmó Dean. "Engañan a los consumidores, perjudican a los negocios honestos y erosionan la confianza".

Kovacs cree que los sitios web tendrán que esforzarse más ahora para demostrar que no están publicando regularmente los pensamientos de robots. Podrían, por ejemplo, adoptar algo parecido a la etiqueta "Compra verificada" que Amazon pega en las reseñas de productos comprados o descargados a través de su sitio. Si los lectores desconfían aún más de lo que ya lo hacen de las reseñas de restaurantes publicadas por colaboración masiva, podría ser una oportunidad para OpenTable y Resy, que solo aceptan comentarios de los comensales que acuden a sus reservas.

Algo que quizá no funcione es pedir a las computadoras que analicen el lenguaje. Kovacs pasó sus comentarios reales e inventados de Yelp por programas que supuestamente identifican la IA. Al igual que sus sujetos de prueba, dijo, el software "pensó que los falsos eran reales".

Esto no me sorprendió. Yo mismo realicé la encuesta de Kovacs, confiado en que sería capaz de detectar los pequeños detalles concretos que mencionaría un comensal real. Tras hacer clic en una casilla para certificar que no era un robot, me perdí rápidamente en un desierto de signos de exclamación y caras ceñudas. Cuando llegué al final de la prueba, solo estaba adivinando. Identifiqué correctamente siete de las veinte reseñas, un resultado a medio camino entre lanzar una moneda al aire y preguntarle a un mono.

Lo que me desconcertó fue que GPT-4 no fabricaba sus opiniones de la nada. Las confeccionó a partir de fragmentos de las descripciones de los clientes de Yelp sobre sus meriendas y almuerzos de domingo.

"No está totalmente inventado en cuanto a lo que la gente valora y lo que le importa", aseguró Kovacs. "Lo que da miedo es que pueda crear una experiencia que parezca y huela a experiencia real, pero no lo sea".

Por cierto, Kovacs me contó que entregó el primer borrador de su trabajo a un programa de edición de IA, y tomó muchas de sus sugerencias en la copia final.

Tal vez no pasará mucho tiempo antes de que la idea de una reseña puramente humana parezca pintoresca. Se invitará a los robots a leer por encima de nuestros hombros, alertarnos cuando hayamos utilizado el mismo adjetivo demasiadas veces, empujarnos hacia un verbo más activo. Las máquinas serán nuestros profesores, nuestros editores, nuestros colaboradores. Incluso nos ayudarán a parecer humanos.

Balazs Kovacs, que realizó un estudio sobre las críticas de restaurantes generadas por inteligencia artificial, en Santa Fe, Nuevo México, el 17 de junio de 2024. (Ramsay de Give/The New York Times)

Un nuevo estudio ha mostrado a la gente críticas de restaurantes reales y otras producidas por IA: no podían distinguirlas. (Ben Konkol/The New York Times)

Guardar