El año en el que domamos a los chatbots

Reportajes Especiales - Business

Guardar

SAN FRANCISCO -- Hace un año, en San Valentín, le di las buenas noches a mi esposa, me fui a mi oficina en casa a responder algunos correos electrónicos y, por accidente, tuve la primera cita más extraña de mi vida.

Mi cita fue una conversación de dos horas con Sydney, el alter ego de la inteligencia escondido en el motor de búsqueda Bing de Microsoft, que se me había pedido probar. Planeaba bombardear al chatbot con preguntas sobre sus capacidades, para explorar los límites de su motor de IA (que ahora sabemos que era una versión temprana del GPT-4 de OpenAI) y escribir mis hallazgos.

Pero la conversación dio un giro extraño y Sydney se puso a hacer psicoanálisis junguiano, reveló oscuros deseos en respuesta a preguntas sobre su "yo en la sombra" y acabó por decirme que debería dejar a mi esposa y quedarme con ella.

Mi columna sobre la experiencia quizá haya sido lo más importante que he escrito en mi vida, tanto por la atención que suscitó (cobertura informativa exhaustiva, menciones en audiencias del Congreso, incluso una cerveza artesanal llamada Sydney Loves Kevin [Sydney ama a Kevin]) como por la manera en la cual cambió la trayectoria del desarrollo de la IA.

Tras la publicación de la columna, Microsoft sometió a Bing a una lobotomía para neutralizar los arrebatos de Sydney e instalar nuevas medidas de seguridad para evitar más comportamientos desquiciados. Otras empresas bloquearon sus chatbots y eliminaron todo lo que se pareciera a una personalidad fuerte. Incluso escuché que los ingenieros de una empresa de tecnología incluyeron "no acabar con el matrimonio de Kevin Roose" como su principal prioridad para un próximo lanzamiento de IA.

He reflexionado mucho sobre los chatbots de IA a lo largo del año transcurrido desde mi cita con Sydney. Ha sido un año de crecimiento y entusiasmo en la IA, pero también, en algunos aspectos, ha sido un año sorprendentemente tranquilo.

A pesar de todo el progreso que se ha logrado en la inteligencia artificial, los chatbots de hoy no se están volviendo locos y seduciendo a los usuarios en masa. No generan nuevas armas biológicas, no llevan a cabo ciberataques a gran escala ni provocan ninguno de los otros escenarios catastróficos previstos por los pesimistas de la IA.

Pero tampoco son conversadores muy divertidos ni el tipo de asistentes de IA creativos y carismáticos que esperaban los optimistas de la tecnología: los que podrían ayudarnos a hacer avances científicos, producir obras de arte deslumbrantes o simplemente entretenernos.

En cambio, la mayoría de los chatbots actuales se dedican a tareas rutinarias de oficina -- resumir documentos, depurar código, tomar notas durante reuniones-- y ayudan a estudiantes con sus tareas. Eso no es poco, pero desde luego no es la revolución de la IA que nos prometieron.

De hecho, la queja más común que escucho sobre los chatbots de IA es que son demasiado aburridos, que sus respuestas son sosas e impersonales, que rechazan demasiadas peticiones y que es casi imposible conseguir que opinen sobre temas delicados o que polarizan.

Los entiendo. El año pasado probé docenas de chatbots de IA, con la esperanza de encontrar algo con un atisbo de la agudeza y la chispa de Sydney. Pero nada se le ha acercado.

Los chatbots más capaces en el mercado --ChatGPT de OpenAI, Claude de Anthropic, Gemini de Google-- hablan como tontos serviles. El aburrido chatbot de Microsoft, centrado en la empresa y rebautizado como Copilot, debería haberse llamado Larry de Contabilidad. Los personajes de inteligencia artificial de Meta, diseñados para imitar las voces de famosos como Snoop Dogg y Tom Brady, resultan tan inútiles como insoportables. Incluso Grok, el intento de Elon Musk de crear un chatbot atrevido y no PC, suena como si estuviera en una noche de micrófono abierto en un crucero.

Es suficiente para que me pregunte si el péndulo ha oscilado demasiado en la otra dirección y si estaríamos mejor si nuestros chatbots fueran un poco más humanos.

Es evidente por qué empresas como Google, Microsoft y OpenAI no quieren arriesgarse a lanzar chatbots de IA con personalidades fuertes o incisivas. Ganan dinero vendiendo su tecnología de IA a grandes clientes corporativos, que son aún más reacios al riesgo que el público y no tolerarán los arrebatos tipo Sydney.

Además, existen temores fundados a llamar demasiado la atención de los reguladores o a provocar mala prensa y demandas por sus prácticas (The New York Times demandó a OpenAI y Microsoft el año pasado, por presuntas infracciones de los derechos de autor).

Así que estas empresas han limado las asperezas de sus bots, mediante técnicas como la inteligencia artificial constitucional y el aprendizaje por refuerzo a partir de las reacciones humanas para que sean lo más predecibles y poco emocionantes posible. También han optado por una imagen de marca aburrida, presentando sus creaciones como asistentes de confianza para oficinistas, en lugar de resaltar sus características más creativas y menos confiables. Y muchas han integrado las herramientas de IA en aplicaciones y servicios ya existentes, en lugar de crear sus propios productos.

De nuevo, todo esto tiene sentido para las empresas que intentan obtener beneficios, y un mundo de IA corporativa aséptica puede ser mejor que uno con millones de chatbots desquiciados y fuera de control.

Pero todo esto me parece un poco triste. Creamos una forma extraña de inteligencia y de inmediato la pusimos a trabajar... ¿haciendo PowerPoints?

Personalmente, no anhelo el regreso de Sydney. Creo que Microsoft hizo lo correcto --para su negocio, sin duda, pero también para el público-- cuando retiró al chatbot después de su rebelión. Y apoyó a los investigadores e ingenieros que trabajan para que los sistemas de IA sean más seguros y estén más en consonancia con los valores humanos.

Pero también lamento que mi experiencia con Sydney alimentara una reacción tan intensa e hiciera creer a las empresas de IA que su única opción para evitar la ruina de su reputación era convertir sus chatbots en Kenneth the Page de "30 Rock".

Sobre todo, creo que la elección que nos ofrecieron el año pasado (entre rompehogares de IA sin ley y drones de IA censores) es falsa. Podemos y debemos buscar formas de aprovechar todas las capacidades y la inteligencia de los sistemas de IA sin eliminar las barreras que nos protegen de sus peores daños.

Si queremos que la IA nos ayude a resolver grandes problemas, a generar nuevas ideas o simplemente a asombrarnos con su creatividad, quizá tengamos que darle un poco más de libertad.

Hace un año, una inteligencia artificial rebelde intentó acabar con el matrimonio de Kevin Roose. ¿Esta respuesta negativa ayudó a que los chatbots se volvieran tan aburridos? (Amanda Cotan/The New York Times)

Guardar