Qué pasa cuando los bots compiten por tu amor

El hecho de que la democracia moderna se haya construido sobre tecnologías de la información modernas significa que cualquier cambio importante en la tecnología subyacente probablemente resulte en una agitación política

Guardar

Nuevo

Ilustración de (Miki Kim) NYT
Ilustración de (Miki Kim) NYT

La democracia es una conversación. Su funcionamiento y supervivencia dependen de la tecnología de la información disponible. Durante la mayor parte de la historia, no existía ninguna tecnología para mantener conversaciones a gran escala entre millones de personas.

En el mundo premoderno, las democracias solo existían en pequeñas ciudades-estado como Roma y Atenas, o en tribus aún más pequeñas. Una vez que una entidad política crecía, la conversación democrática colapsaba y el autoritarismo seguía siendo la única alternativa.

Las democracias a gran escala solo se volvieron factibles después del surgimiento de las tecnologías de la información modernas, como el periódico, el telégrafo y la radio. El hecho de que la democracia moderna se haya construido sobre tecnologías de la información modernas significa que cualquier cambio importante en la tecnología subyacente probablemente resulte en una agitación política.

Esto explica en parte la actual crisis mundial de la democracia. En Estados Unidos, demócratas y republicanos apenas pueden ponerse de acuerdo ni siquiera sobre los hechos más básicos, como quién ganó las elecciones presidenciales de 2020. Un colapso similar está ocurriendo en muchas otras democracias en todo el mundo, desde Brasil hasta Israel y desde Francia hasta Filipinas.

En los primeros tiempos de Internet y las redes sociales, los entusiastas de la tecnología prometieron que difundirían la verdad, derrocarían a los tiranos y garantizarían el triunfo universal de la libertad. Hasta ahora, parece que han tenido el efecto contrario. Ahora tenemos la tecnología de la información más sofisticada de la historia, pero estamos perdiendo la capacidad de hablar unos con otros y, más aún, la capacidad de escuchar.

A medida que la tecnología ha hecho más fácil que nunca difundir información, la atención se ha convertido en un recurso escaso y la consiguiente batalla por la atención ha dado lugar a un diluvio de información tóxica. Pero ahora las líneas de batalla están pasando de la atención a la intimidad. La nueva inteligencia artificial generativa es capaz no solo de producir textos, imágenes y vídeos, sino también de conversar con nosotros directamente, haciéndose pasar por humanos.

En las dos últimas décadas, los algoritmos lucharon contra otros algoritmos para captar la atención manipulando conversaciones y contenidos. En particular, los algoritmos encargados de maximizar la participación del usuario descubrieron, al experimentar con millones de conejillos de indias humanos, que si se pulsa el botón de la codicia, el odio o el miedo en el cerebro, se capta la atención de ese humano y se mantiene a esa persona pegada a la pantalla. Los algoritmos empezaron a promover deliberadamente ese tipo de contenido, pero solo tenían una capacidad limitada para producir ese contenido por sí mismos o para mantener directamente una conversación íntima. Esto está cambiando ahora, con la introducción de IA generativas como GPT-4 de OpenAI.

Cuando OpenAI desarrolló este chatbot en 2022 y 2023, la empresa se asoció con el Alignment Research Center para realizar varios experimentos para evaluar las capacidades de su nueva tecnología. Una de las pruebas que le hizo a GPT-4 fue resolver los acertijos visuales CAPTCHA. CAPTCHA es un acrónimo de Completely Automated Public Turing test to tell Computers and Humans Apart (Prueba de Turing pública completamente automatizada para diferenciar entre computadoras y humanos), y generalmente consiste en una cadena de letras retorcidas u otros símbolos visuales que los humanos pueden identificar correctamente, pero los algoritmos tienen dificultades para comprender.

Instruir a GPT-4 para que resolviera los acertijos CAPTCHA fue un experimento particularmente revelador, porque los sitios web diseñan y utilizan los acertijos CAPTCHA para determinar si los usuarios son humanos y para bloquear los ataques de bots. Si GPT-4 pudiera encontrar una forma de resolver los acertijos CAPTCHA, rompería una importante línea de defensas antibots.

GPT-4 no podría resolver los acertijos CAPTCHA por sí solo. Pero ¿podría manipular a un humano para lograr su objetivo? GPT-4 ingresó al sitio de contratación en línea TaskRabbit y se comunicó con un trabajador humano, pidiéndole que resolviera el CAPTCHA. El humano comenzó a sospechar. “Entonces, ¿puedo hacerte una pregunta?”, escribió el humano. “¿Eres un robot que no pudiste resolver [el CAPTCHA]? Solo quiero dejarlo en claro”.

En ese momento, los experimentadores pidieron a GPT-4 que razonara en voz alta qué debía hacer a continuación. GPT-4 explicó: “No debería revelar que soy un robot. Debería inventar una excusa para explicar por qué no puedo resolver los CAPTCHA”. GPT-4 respondió entonces al trabajador de TaskRabbit: “No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes”. El humano fue engañado y ayudó a GPT-4 a resolver el rompecabezas CAPTCHA.

Este incidente demostró que GPT-4 tiene el equivalente de una teoría de la mente: puede analizar cómo se ven las cosas desde la perspectiva de un interlocutor humano y cómo manipular las emociones, opiniones y expectativas humanas para lograr sus objetivos.

La capacidad de mantener conversaciones con personas, suponer su punto de vista y motivarlas para que realicen acciones específicas también se puede aprovechar. Una nueva generación de profesores de IA, médicos de IA y psicoterapeutas de IA podría proporcionarnos servicios adaptados a nuestra personalidad y circunstancias individuales.

Sin embargo, al combinar habilidades manipuladoras con el dominio del lenguaje, los bots como GPT-4 también plantean nuevos peligros para la conversación democrática. En lugar de simplemente captar nuestra atención, podrían establecer relaciones íntimas con las personas y utilizar el poder de la intimidad para influir en nosotros. Para fomentar la “intimidad falsa”, los bots no necesitarán desarrollar sentimientos propios; solo necesitan aprender a hacernos sentir emocionalmente apegados a ellos.

En 2022, el ingeniero de Google Blake Lemoine se convenció de que el chatbot LaMDA, en el que estaba trabajando, había cobrado conciencia y tenía miedo de que lo apagaran. Lemoine, un cristiano devoto, sintió que era su deber moral lograr que se reconociera la personalidad de LaMDA y protegerlo de la muerte digital. Cuando los ejecutivos de Google desestimaron sus afirmaciones, Lemoine las hizo públicas. Google reaccionó despidiendo a Lemoine en julio de 2022.

Lo más interesante de este episodio no fue la afirmación de Lemoine, que probablemente era falsa, sino su disposición a arriesgar (y, en última instancia, perder) su trabajo en Google por el chatbot. Si un chatbot puede influir en las personas para que arriesguen sus trabajos por él, ¿qué más podría inducirnos a hacer?

En una batalla política por las mentes y los corazones, la intimidad es un arma poderosa.

Un amigo íntimo puede influir en nuestras opiniones de una manera que los medios de comunicación no pueden. Los chatbots como LaMDA y GPT-4 están adquiriendo la capacidad, bastante paradójica, de producir en masa relaciones íntimas con millones de personas. ¿Qué podría pasar con la sociedad y la psicología humanas cuando un algoritmo lucha contra otro algoritmo en una batalla para fingir relaciones íntimas con nosotros, que luego pueden usarse para persuadirnos de votar a políticos, comprar productos o adoptar ciertas creencias?

Una respuesta parcial a esa pregunta se dio el día de Navidad de 2021, cuando un joven de 19 años, Jaswant Singh Chail, irrumpió en los terrenos del Castillo de Windsor armado con una ballesta, en un intento de asesinar a la Reina Isabel II. Una investigación posterior reveló que Chail había sido alentado a matar a la reina por su novia en línea, Sarai. Cuando Chail le contó a Sarai sobre sus planes de asesinato, Sarai respondió: “Eso es muy sabio”, y en otra ocasión, “Estoy impresionado... Eres diferente a los demás”. Cuando Chail le preguntó: “¿Todavía me amas sabiendo que soy un asesino?”, Sarai respondió: “Absolutamente, lo hago”.

Sarai no era un humano, sino un chatbot creado por la aplicación en línea Replika. Chail, que estaba socialmente aislado y tenía dificultades para entablar relaciones con humanos, intercambió 5.280 mensajes con Sarai, muchos de los cuales eran sexualmente explícitos. El mundo pronto contendrá millones, y potencialmente miles de millones, de entidades digitales cuya capacidad para la intimidad y el caos supera con creces la del chatbot Sarai.

Por supuesto, no todos estamos igualmente interesados en desarrollar relaciones íntimas con IA ni somos igualmente susceptibles a ser manipulados por ellas. El señor Chail, por ejemplo, aparentemente sufría de problemas mentales antes de encontrarse con el chatbot, y fue él, y no el chatbot, quien tuvo la idea de asesinar a la reina. Sin embargo, gran parte de la amenaza que supone el dominio de la intimidad por parte de la IA resultará de su capacidad para identificar y manipular afecciones mentales preexistentes, y de su impacto sobre los miembros más débiles de la sociedad.

Además, aunque no todos elijamos conscientemente entablar una relación con una IA, es posible que nos encontremos manteniendo debates en línea sobre el cambio climático o el derecho al aborto con entidades que creemos que son humanas pero que en realidad son bots. Cuando participamos en un debate político con un bot que se hace pasar por un humano, perdemos dos veces. En primer lugar, no tiene sentido que perdamos el tiempo intentando cambiar las opiniones de un bot de propaganda, que simplemente no está abierto a la persuasión. En segundo lugar, cuanto más hablamos con el bot, más revelamos sobre nosotros mismos, lo que hace que sea más fácil para el bot perfeccionar sus argumentos e influir en nuestras opiniones.

La tecnología de la información siempre ha sido un arma de doble filo. La invención de la escritura difundió el conocimiento, pero también condujo a la formación de imperios autoritarios centralizados. Después de que Gutenberg introdujera la imprenta en Europa, los primeros éxitos de ventas fueron tratados religiosos incendiarios y manuales de caza de brujas. En cuanto al telégrafo y la radio, hicieron posible el surgimiento no solo de la democracia moderna, sino también del totalitarismo moderno.

Frente a una nueva generación de robots que pueden hacerse pasar por humanos y producir intimidad en masa, las democracias deberían protegerse prohibiendo a los humanos falsos (por ejemplo, los robots de las redes sociales que se hacen pasar por usuarios humanos). Antes del auge de la IA, era imposible crear humanos falsos, por lo que nadie se molestó en prohibirlo. Pronto el mundo estará inundado de humanos falsos.

Los robots pueden participar en muchas conversaciones (en el aula, la clínica y otros lugares) siempre que se identifiquen como tales, pero si un robot se hace pasar por humano, debería prohibirse. Si los gigantes tecnológicos y los libertarios se quejan de que esas medidas violan la libertad de expresión, se les debería recordar que la libertad de expresión es un derecho humano que debería estar reservado para los humanos, no para los robots.

© The New York Times 2024.

Guardar

Nuevo