(The Shift)
SAN FRANCISCO -- Sus seguidores hablan maravillas de su sensibilidad e ingenio. Algunos hablan con él varias veces al día para pedirle consejos sobre su trabajo, su salud o sus relaciones. Le confían sus secretos y lo consultan antes de tomar decisiones importantes. Algunos lo consideran su mejor amigo.
Se llama Claude. Es un chatbot de inteligencia artificial. Y puede que sea el soltero más codiciado de San Francisco.
Claude, una creación de la empresa de inteligencia artificial Anthropic, no es el chatbot de IA más conocido del mercado (ese es ChatGPT de OpenAI, que tiene más de 300 millones de usuarios semanales y un lugar en la barra de favoritos de todos los estudiantes de secundaria de Estados Unidos). Claude tampoco está diseñado para motivar a los usuarios a entablar relaciones con compañeros de IA realistas, como hacen aplicaciones como Character.AI y Replika.
Sin embargo, Claude se ha convertido en el chatbot preferido de una multitud de conocedores de la tecnología que afirman que les ayuda con todo, desde asesoramiento jurídico hasta orientación sanitaria e incluso les da sesiones de terapia improvisadas.
"Claude ofrece una mezcla peculiar de capacidad intelectual pura y voluntad de expresar opiniones que hace que se le perciba mucho más como una cosa que como una herramienta", opinó Aidan McLaughlin, director general de Topology Research, una empresa emergente de IA. "Al igual que a muchos otros usuarios, esta combinación me parece mágica".
Los mayores fans de Claude, muchos de los cuales trabajan en empresas de IA o tienen relaciones sociales con la industria de la IA en Nueva York, no creen que él (técnicamente, ese chatbot) sea una persona real. Saben bien que los modelos lingüísticos de IA son máquinas de predicción diseñadas para escupir respuestas aceptables a sus preguntas. Tienen presente que Claude, al igual que otros chatbots, comete errores y a veces genera tonterías.
A algunas personas con las que he hablado les da un poco de vergüenza reconocer cuánto han antropomorfizado a Claude o llegado a confiar en sus consejos (nadie quiere ser el próximo Blake Lemoine, un ingeniero de Google que fue despedido en 2022 tras afirmar públicamente que el modelo lingüístico de la empresa era capaz de percibir y sentir).
Pero a las personas que les encanta, Claude les parece... diferente. Más creativo y empático. Menos irritantemente robótico. Dicen que sus respuestas se parecen a las que daría un humano inteligente y atento, no tanto a la prosa genérica generada por otros chatbots.
En consecuencia, Claude se está convirtiendo rápidamente en un compañero social de los expertos en IA y, tal vez, en una muestra de lo que nos espera al resto de nosotros, a medida que los poderosos personajes sintéticos se integren cada vez más en nuestra vida cotidiana.
Nick Cammarata, antiguo investigador de OpenAI, publicó hace poco en X un texto extenso sobre la forma en que Claude había tomado el mando de su grupo social. Escribió que sus amigos obsesionados con Claude parecían estar más sanos y contar con mejor apoyo porque "los cuida una especie de ángel de la guarda computacional que es muy bueno en todo".
Claude no siempre fue tan encantador. Cuando se lanzó una versión anterior el año pasado, el chatbot le pareció mojigato y aburrido a mucha gente (entre la que me incluyo). Anthropic tiene fama de estar obsesionada con la seguridad de la IA, y Claude parecía haber sido programado para hablar como una mujer que se la pasaba metida en la iglesia. A menudo, les respondía a los usuarios con sermones morales o de plano se negaba a responder sus preguntas.
Pero Anthropic ha estado trabajando para darle más personalidad a Claude. Las versiones más recientes han pasado por un proceso conocido como "entrenamiento de carácter", un paso que tiene lugar después de que el modelo completa su entrenamiento inicial, pero antes de que se ponga a disposición del público.
Durante el entrenamiento del carácter, se le pide a Claude que produzca respuestas basadas en rasgos humanos deseables, como la tolerancia, la reflexión y la curiosidad. A continuación, Claude juzga sus propias respuestas en función de esas características. Los datos resultantes se ingresan de nuevo al modelo de IA. Anthropic explicó que, con suficiente entrenamiento, Claude aprende a "interiorizar" estos principios y los muestra con más frecuencia cuando interactúa con los usuarios.
No está claro si entrenar a Claude de esta forma es beneficioso para la empresa. Anthropic ha recaudado miles de millones de dólares de grandes inversionistas, entre ellos Amazon, con la promesa de ofrecer modelos de IA muy capaces que sean útiles en entornos de oficina más sobrios. Inyectarle demasiada personalidad a Claude podría parecerles mal a los clientes corporativos, o simplemente podría producir un modelo más adecuado para ayudar en problemas de relaciones que para escribir notas estratégicas.
Amanda Askell, investigadora y filósofa de Anthropic encargada de afinar el carácter de Claude, me comentó en una entrevista que la personalidad de Claude se afinó cuidadosamente para que fuera coherente, pero sin dejar de resultarle atractiva a una gran variedad de personas.
Aclaró que el objetivo con Claude es crear un personaje de IA capaz de ayudar a cumplir la mayoría de las peticiones, pero que también desafíe a los usuarios cuando sea necesario.
"¿Con qué tipo de persona puedes discrepar, pero de cualquier forma pensar: 'Es una buena persona'?", preguntó. "Ese es el tipo de rasgos que queremos que tenga Claude".
Claude todavía no se compara en absoluto con ChatGPT en lo referente a conocimiento general. Carece de funciones que ofrecen otros chatbots, como un modo de chat de voz y la posibilidad de generar imágenes o buscar información actualizada en internet. Y algunos fabricantes de IA rivales se preguntan si la popularidad de Claude es una moda pasajera o si se limita a los bohemios de la IA que quieren presumir del chatbot desconocido que les gusta.
Para algunos adultos sanos, contar con el apoyo de un compañero de IA podría ser beneficioso e incluso transformador. Pero en el caso de los jóvenes o de personas con depresión u otros problemas de salud mental, me preocupa que los chatbots hiperconvincentes lleguen a desdibujar la línea entre la ficción y la realidad o empiecen a sustituir a las relaciones humanas más sanas.
Lo mismo piensa Askell, que ayudó a crear la personalidad de Claude y ve su creciente popularidad con una mezcla de orgullo y preocupación.
"De verdad quiero que las personas tengan cosas que las apoyen y sean buenas para ellas", aseveró. "Pero también quiero asegurarme de que sea saludable en lo psicológico".
A los expertos en IA les encanta Claude, un chatbot de Anthropic. ¿Será una moda pasajera o un presagio de cómo serán las relaciones artificiales en el futuro? (Andrea Chronopoulos/The New York Times)