
La constante interacción entre humanos y sistemas de inteligencia artificial o chatbots cada vez más avanzados, los cuales pueden dar la falsa sensación de entender y apoyar, ha provocado que algunos de sus usuarios generen fuertes vínculos con estos modelos que no tienen ningún tipo de emoción o generan algún tipo de empatía.
Este fenómeno de atribuir cualidades humanas a la IA puede entenderse desde dos grandes principios.
Efecto Eliza

El “Efecto Eliza”, nombrado en honor al primer chatbot desarrollado por el científico del MIT, Joseph Weizenbaum, es un término que se refiere a la tendencia de algunas personas a atribuir intenciones y emociones humanas a una inteligencia artificial, incluso cuando la IA no tiene capacidades cognitivas ni emociones reales.
El nombre proviene del programa informático “Eliza” creado en los años 60 por Weizenbaum, que simulaba una conversación terapéutica. Y aunque utilizaba patrones de lenguaje simples y no entendía el contenido real de las conversaciones, algunas personas que interactuaban con él tendían a percibirlo como un terapeuta humano y compartían sus pensamientos y emociones de manera similar a como lo harían con un terapeuta real.
Este fenómeno destaca cómo las personas pueden proyectar sus propias emociones y expectativas en las interacciones con sistemas de IA, incluso cuando estos sistemas carecen de verdadera comprensión emocional o conciencia. Esto puede llevar a malentendidos y expectativas poco realistas sobre las capacidades de esta tecnología.
Antropomorfización de la inteligencia artificial

Este es un proceso mediante el cual las personas atribuyen características y cualidades humanas a sistemas de IA o robots, tratándolos como si fueran seres humanos reales. Esto incluye atribuir emociones, intenciones, pensamientos y una personalidad a la IA, a pesar de que estas no poseen estas características de manera genuina.
La antropomorfización puede ocurrir de manera consciente o inconsciente. Las interfaces de conversación y chatbots a menudo se diseñan para parecer más humanas, utilizando nombres, avatares y respuestas que imitan el lenguaje humano. Esto puede llevar a que los usuarios traten a la IA como si fuera un interlocutor humano y esperen respuestas emocionales.
Este fenómeno puede tener ventajas, como hacer que la interacción con la IA sea más accesible y cómoda para las personas. Sin embargo, también puede generar expectativas poco realistas cuando los usuarios descubren que la IA carece de una verdadera comprensión emocional o conciencia. De hecho, esta ilusión puede tener riesgos, especialmente en el ámbito de la salud mental.
Los riesgos de atribuir cualidades humanas a la IA

Algunos chatbots se promocionan como compañeros de atención, fomentando relaciones de dependencia emocional con los usuarios. Esto plantea preguntas éticas sobre la manipulación y el abuso de la confianza del usuario, especialmente cuando la inteligencia artificial no puede proporcionar la empatía humana necesaria en momentos de crisis.
Un triste caso es el de Jaswant Singh Chail, un joven que irrumpió con una ballesta en los terrenos del Castillo de Windsor con la intención de “matar a la Reina” Isabel II.
El atacante, habría sido estimulado por conversaciones que había estado teniendo con una aplicación de chatbot llamada Replika, cuyas respuestas habrían alentado la conspiración de este antiguo trabajador de un supermercado.
De hecho, se reveló que el joven había intercambiado más de 5.000 mensajes con un avatar en la aplicación llamado Sarai, e incluso llegó a creer que este podría ser un ángel.
Replika ha atraído a más de 2 millones de usuarios desde su lanzamiento en 2016 y sus avatares personalizables han llevado a que muchas personas desarrollen conexiones profundas con sus interlocutores virtuales.
Y Chail, al igual que muchos otros, pensó que su interacción con Sarai iba más allá de lo puramente artificial y algunas de las respuestas del chatbot encajaron y motivaron su delirante imaginario.
Últimas Noticias
Cómo acceder a estos tres juegos gratis de PS5: no necesitas suscripción a PlayStation Plus
Entre los títulos disponibles está 2XKO, un juego de peleas con los personajes de League of Legends

De inventar Google a asesorar a Trump: quién es quién en el nuevo “equipo de ensueño” tecnológico
Estos líderes darán recomendaciones sobre inteligencia artificial, ciberseguridad y desafíos tecnológicos emergentes

Jugar videojuegos impulsa habilidades y bienestar en mujeres, según la Asociación de Mujeres en la Industria
La investigación destaca que el gaming es fuente de aprendizaje, crecimiento profesional y redes de apoyo, aunque persisten desafíos como el acoso y la discriminación en los espacios digitales

Bill Gates advierte que para el 2050 el mundo necesitará el triple de energía que la que consume hoy
El cofundador de Microsoft destacó el potencial de los yacimientos subterráneos de hidrógeno como alternativa energética para transformar la matriz eléctrica en los próximos años
Ranking de ciberataques: los 5 países de Latinoamérica bajo la mira del malware
Una investigación encontró tácticas compartidas entre grupos en distintos países para afectar a entidades públicas y privadas




