
Durante años, las advertencias sobre la adicción tecnológica se centraron en las redes sociales, los videojuegos y los teléfonos inteligentes. Pero ahora, un nuevo tipo de interacción digital empieza a despertar señales de alerta, y es precisamente la que se da entre humanos y modelos de lenguaje como ChatGPT.
Según una investigación conjunta del MIT Media Lab y OpenAI, utilizar intensivamente esta inteligencia artificial podría afectar el bienestar emocional y social de ciertos usuarios, en especial de aquellos más comprometidos con el sistema.

Uusuarios podría crear con ChatGPT vínculos no saludables
ChatGPT se volvió una herramienta habitual para millones de personas. Está presente en oficinas, escuelas, redacciones, consultas legales y hasta en conversaciones personales durante el tiempo libre.
Su habilidad para mantener diálogos fluidos y ofrecer respuestas contextualizadas lo ha convertido en una suerte de asistente digital confiable. Pero esa misma capacidad para simular compañía, empatía o entendimiento, también puede generar vínculos que no siempre son saludables.
Quiénes son las personas más afectadas con la IA

La investigación, titulada ‘Cómo los chatbots de IA afectan nuestro bienestar social y emocional: nuevos hallazgos de investigación’, analizó a más de 5.000 personas y detectó indicios de una relación problemática en un segmento específico de usuarios.
Los investigadores identificaron comportamientos compatibles con una posible adicción digital, como “preocupación, síntomas de abstinencia, pérdida de control y modificación del estado de ánimo”.
Estos indicios no eran generalizados, pero sí se presentaban con claridad en los llamados “usuarios avanzados”, definidos como personas que pasan largos períodos interactuando con ChatGPT, muchas veces varias veces al día y en múltiples contextos.
Cuando no representa un peligro el uso de ChatGPT

Este grupo no representa al grueso de los usuarios. De hecho, la gran mayoría utiliza ChatGPT de manera esporádica, para resolver dudas puntuales o acelerar tareas cotidianas.
Es decir, no se trata de un riesgo extendido, pero sí de una advertencia sobre cómo ciertas dinámicas de uso intensivo pueden derivar en patrones similares a los que se observan en otros tipos de dependencia tecnológica.
El riesgo emocional del Modo de Voz Avanzado
Uno de los aspectos más llamativos del estudio fue el rol del Modo de Voz Avanzado, una funcionalidad que permite mantener conversaciones en tiempo real con la inteligencia artificial.
Dentro de los usuarios que accedieron a esta herramienta, se detectó una mayor propensión a establecer un vínculo afectivo con el modelo.
Aunque los investigadores aclararon que se trata de una fracción reducida del total de usuarios, consideraron significativo el hecho de que algunas personas pudieran llegar a atribuir cualidades humanas a la IA, al punto de sentirse acompañadas o emocionalmente comprendidas por ella.
Esto plantea preguntas difíciles: ¿Qué ocurre cuando un sistema automatizado empieza a reemplazar interacciones humanas? ¿Hasta qué punto una conversación con una máquina puede satisfacer necesidades afectivas? ¿Y cuál es el límite entre una herramienta útil y una presencia constante que interfiere con la vida cotidiana?
Dependencia emocional por el uso de la IA
La investigación del MIT Media Lab y OpenAI no ofrece respuestas definitivas, pero deja en claro que el uso intensivo de herramientas de IA debe evaluarse no solo desde la eficiencia o la innovación tecnológica, también desde el impacto emocional y psicológico.
En palabras de los propios autores del estudio, el fenómeno merece seguimiento y análisis más profundos, ya que “el grupo que mostró signos de dependencia era tan reducido que sería complejo estudiar su impacto a gran escala”, aunque no por ello menos relevante.
ChatGPT no fue diseñado como sustituto emocional, pero su estructura conversacional y su disponibilidad constante lo colocan en una posición singular.
A medida que más personas interactúan con modelos como este, los investigadores sugieren prestar atención no solo a lo que hacen, mas bien a cómo nos hacen sentir.
Una herramienta útil puede convertirse en una compañía persistente, y esa compañía, si no se administra con cuidado, podría ocupar espacios que antes estaban reservados a vínculos humanos.
Últimas Noticias
“Mamá, necesito ayuda”: la nueva estafa con IA que clona la voz de tus hijos con solo 3 segundos de audio
La clonación de voz con IA permite suplantar identidades con audios casi indistinguibles

Netflix ya no funciona en tu celular: 3 trucos legales para seguir viendo tus series sin cambiar de teléfono
Si tienes un iPhone o iPad que se quedó estancado en versiones antiguas de iOS, puedes aprovechar la función ‘Mis Compras’ de la App Store

¿Te están escuchando? La verdad oculta tras el punto verde o naranja de la parte de arriba del celular
La implementación varía según el fabricante, pero en todos los casos los puntos refuerzan la transparencia y la seguridad en el uso de datos personales

El “Gabinete de Oro” de Silicon Valley: por qué Zuckerberg, Brin y Ellison son los nuevos aliados de la tecnología en EE. UU.
El presidente Donald Trump integró a líderes de Meta, Google, Oracle y Nvidia en un consejo clave para asesorar la política tecnológica de Estados Unidos

¿Tu artista favorita en Fortnite? El paso a paso para usar IA y crear skins realistas de estrellas de K-pop
Obtener un resultado de calidad depende de seleccionar una herramienta de IA avanzada, como Midjourney o DALL-E 3



