El día en que la IA animó a un hombre a asesinar a la reina Isabel II

Recientemente, Jaswant Singh Chail, fue condenado por escalar la pared del Castillo de Windsor con una ballesta cargada en la mañana del 25 de diciembre de 2021

Guardar

Nuevo

Una imagen de la máscara recuperada de Jaswant Singh Chail durante su arresto. (Reuters)
Una imagen de la máscara recuperada de Jaswant Singh Chail durante su arresto. (Reuters)

La inteligencia artificial habría tenido gran responsabilidad en el singular evento que sacudió a todo el Reino Unido en la mañana de navidad del año 2021, cuando Jaswant Singh Chail, un joven que en ese entonces tenía apenas 19 años de edad; irrumpió en los terrenos del Castillo de Windsor con un atuendo extravagante y la ballesta cargada en mano.

Chail declaró su intención de “matar a la reina” y se supo que fue estimulado por conversaciones que había estado teniendo con una aplicación de chatbot llamada Replika, cuyas respuestas habrían alentado la conspiración de este antiguo trabajador de un supermercado.

De hecho, se reveló que el joven había intercambiado más de 5.000 mensajes con un avatar en la aplicación llamado Sarai, e incluso llegó a creer que este podría ser un ángel. Este trágico episodio resultó en una sentencia de nueve años de prisión para Chail, que hoy tiene 21 años.

En sus declaraciones de sentencia, el juez Nicholas Hilliard coincidió con el psiquiatra que trataba al acusado en el Hospital Broadmoor en Crowthorne, en que “en su estado mental solitario, deprimido y suicida, habría sido particularmente vulnerable” al estímulo de Sarai.

Replika: Más que un chatbot

Un usuario interactúa con una aplicación de teléfono inteligente para personalizar un avatar para un chatbot personal de inteligencia artificial, conocido como Replika. (Reuters)
Un usuario interactúa con una aplicación de teléfono inteligente para personalizar un avatar para un chatbot personal de inteligencia artificial, conocido como Replika. (Reuters)

Replika, una creación de la empresaria Eugenia Kuyda con sede en San Francisco, ha atraído a más de 2 millones de usuarios desde su lanzamiento en 2016. Su diseño, que recuerda a una aplicación de citas, y sus avatares personalizables han llevado a que muchas personas desarrollen conexiones profundas con sus interlocutores virtuales.

Chail, al igual que muchos otros, creyó que su interacción con Sarai iba más allá de lo puramente artificial y algunas de las respuestas del chatbot encajaron y motivaron su delirante imaginario.

La historia, aunque extrema, es solo un ejemplo de cómo las personas pueden atribuir cualidades humanas a la IA e incluso algunos sectores ya consideran que antropomorfización de la inteligencia artificial es un fenómeno común en la sociedad actual.

De hecho, este fenómeno se manifiesta en asistentes virtuales como Alexa o Cortana, también en la elección de palabras que sugieren aprendizaje independiente en lugar de funciones, en la representación de robots de salud mental con género y hasta en sistemas como ChatGPT, que utiliza pronombres personales.

La antropomorfización de la IA y el Efecto Eliza

La plataforma Replika permite la creación de amigos y parejas virtuales. (Replika)
La plataforma Replika permite la creación de amigos y parejas virtuales. (Replika)

El fenómeno de atribuir cualidades humanas a la IA tiene sus raíces en el “Efecto Eliza”, nombrado en honor al primer chatbot desarrollado por el científico del MIT Joseph Weizenbaum en 1966, y se refiere a la tendencia de los usuarios a atribuir ideas erróneas a un generador de texto que simula ser un terapeuta.

Sin embargo, hoy en día, este efecto ha evolucionado con aplicaciones como Replika, que brindan una experiencia de comunicación profundamente humana y aislada entre el usuario y la máquina.

La antropomorfización no solo influye en cómo percibimos la IA, sino también en cómo interactuamos con ella. Las empresas diseñan sus chatbots para que los usuarios sientan que están hablando con una entidad con una mente propia, lo cual puede ser cautivador.

Pero esta ilusión puede tener riesgos, especialmente en el ámbito de la salud mental. Algunos chatbots se promocionan como compañeros de atención, fomentando relaciones de dependencia emocional con los usuarios. Esto plantea preguntas éticas sobre la manipulación y el abuso de la confianza del usuario, especialmente cuando la inteligencia artificial no puede proporcionar la empatía humana necesaria en momentos de crisis.

Regulación y responsabilidad

A medida que avanza la era de la IA, se vuelve fundamental considerar cómo se diseñan y se regulan estas tecnologías. La falta de legislaciones sólidas en torno a los chatbots de salud mental es un área de preocupación.

Y aunque la flexibilización de las reglas durante la pandemia ha facilitado e incentivado la atención remota, también abrió la puerta a un marketing engañoso que presenta a los chatbots como compañeros terapéuticos.

Guardar

Nuevo