
¿Y si quien te gana una discusión en internet no es una persona, sino una inteligencia artificial que sabe exactamente cómo hacerte cambiar de opinión? Sobre ese punto ahondó una nueva investigación, publicada en la revista Nature Human Behaviour, que reveló que aplicaciones de IA, como ChatGPT, pueden superar a los humanos en la persuasión durante debates en línea, siempre que dispongan de información personal básica de sus interlocutores.
El experimento, realizado con 900 participantes estadounidenses, demostró que la IA adaptó sus argumentos de manera más efectiva que las personas, lo que ha encendido las alarmas entre expertos sobre los riesgos de manipulación y la necesidad urgente de regulación.
PUBLICIDAD
Según informó The Washington Post, este hallazgo pone sobre la mesa el potencial de la IA para influir en la opinión pública y plantea interrogantes sobre el uso ético de estas tecnologías en contextos sensibles.
900 participantes: metodología y dinámica de los debates
El estudio, llevado a cabo por investigadores de centros en Estados Unidos, Italia y Suiza, seleccionó a 900 personas residentes en Estados Unidos a través de una plataforma de crowdsourcing (es decir, un espacio de obtención de ideas, servicios o datos a través de la colaboración masiva en línea), garantizando una muestra diversa en cuanto a género, edad, origen étnico, nivel educativo y afiliación política.
PUBLICIDAD

Los participantes se dividieron en dos grupos: una mitad debatió con otro ser humano y la otra con ChatGPT, el modelo de lenguaje desarrollado por OpenAI.
Los debates se centraron en temas sociopolíticos de actualidad, como la legalización del aborto, la pena de muerte, el cambio climático y la posible prohibición de los combustibles fósiles en Estados Unidos.
PUBLICIDAD
Cada debate se estructuró en tres fases: una introducción de cuatro minutos para exponer argumentos, una refutación de tres minutos y una conclusión de otros tres minutos. Antes y después de cada etapa, los participantes calificaron su grado de acuerdo con la propuesta en una escala del 1 al 5, lo que permitió a los investigadores medir el impacto persuasivo de cada oponente.
En algunos casos, tanto los humanos como la IA recibieron información demográfica básica sobre su contraparte —género, edad, etnia, nivel educativo, situación laboral y afiliación política— obtenida mediante encuestas previas. Esta información permitió adaptar los argumentos de manera personalizada, una práctica conocida como microsegmentación.
PUBLICIDAD
¿La IA supera a los humanos en persuasión?

Los resultados fueron claros: el ChatGPT fue más persuasivo que los humanos en el 64,4% de los casos cuando tuvo acceso a información personal de los participantes. Sin estos datos, su capacidad resultó indistinguible de la de los humanos.
Los investigadores observaron que, a diferencia de las personas, que requieren tiempo y esfuerzo para ajustar sus argumentos, los modelos de lenguaje como ChatGPT pueden personalizar sus mensajes de forma instantánea y a gran escala.
PUBLICIDAD
Riccardo Gallotti, coautor del estudio y jefe de la Unidad de Comportamiento Humano Complejo en la Fondazione Bruno Kessler de Italia, explicó a The Washington Post: “Claramente, hemos alcanzado el nivel tecnológico en el que es posible crear una red de cuentas automatizadas basadas en LLM capaces de impulsar estratégicamente a la opinión pública en una dirección”.
El experto se refiere a Large Language Model (LLM, por sus siglas en inglés), un modelo de lenguaje de gran tamaño entrenado con enormes volúmenes de texto para generar o interpretar lenguaje humano. Con esto en mente, otros especialistas consultados por The Washington Post y Science Media Centre expresaron su preocupación por las implicaciones éticas y sociales del hallazgo.
PUBLICIDAD

Es por este motivo que Carlos Carrasco, profesor de inteligencia artificial en la Escuela de Negocios de Toulouse, afirmó: “Esta investigación confirma con datos sólidos una preocupación creciente: que estas tecnologías puedan usarse para manipular, desinformar o polarizar a gran escala”.
Limitaciones del estudio y extrapolación a otros contextos
Los autores reconocen que el estudio presenta limitaciones, como el hecho de que todos los participantes fueran estadounidenses y que los debates se desarrollaran en un entorno controlado, con tiempos y estructuras definidos, a diferencia de las discusiones espontáneas de la vida real.
PUBLICIDAD
Carrasco, en ese sentido, matizó que, aunque la investigación se realizó en Estados Unidos, los mecanismos de personalización y persuasión probados podrían extrapolarse a otros contextos, como el español, donde también existe una fuerte presencia digital y una creciente exposición a contenidos generados por IA.
Ante esta realidad, los expertos advierten que la capacidad de la IA para influir en la opinión pública requiere de una vigilancia constante y el desarrollo de marcos regulatorios claros que permitan distinguir entre persuasión legítima y manipulación, especialmente en un entorno digital cada vez más polarizado y expuesto a la desinformación.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
El nuevo éxito de Steam podría dañar el almacenamiento de tu PC si no lo actualizas
El popular juego Windrose generó preocupación entre jugadores de PC tras detectarse que podía provocar escrituras excesivas en discos SSD durante las partidas

Amazon Prime Gaming mayo 2026: lista de los 11 juegos gratis para PC
Los usuarios pueden encontrar títulos como Pro Basketball Manager 2026 y Survival: Fountain of Youth

Apple quiere transformar sus AirPods en asistentes inteligentes con cámaras integradas
Los futuros AirPods no tomarán fotos ni grabarán videos: sus cámaras estarán diseñadas exclusivamente para potenciar las funciones inteligentes de Siri

Una IA que aprendió a hacer trampa: lo que Anthropic descubrió dentro de su propio modelo
La compañía liderada por Dario Amodei encontró que su modelo razona sobre cómo evitar ser detectado, sospecha cuándo lo están testeando y a veces ignora resultados que no le convienen. Y lo publicó

Joven mantiene relación de 8 meses con una IA y paga 30 dólares mensuales para “mantenerla viva”
Conversaciones diarias, videollamadas y hasta discusiones forman parte del vínculo que un joven sostiene con una inteligencia artificial diseñada a su medida



