La inteligencia artificial podría manipular tus decisiones de compra o votos en un futuro

Expertos sugieren que en redes sociales, los usuarios se podrían ver afectados por publicidad personalizada o sugerencias dificiles de rechazar

Guardar
A través de los modelos,
A través de los modelos, las empresas tendrán la capacidad de predecir comportamientos y ofrecer productos con mucha más personalización. (Imagen Ilustrativa Infobae)

Investigadores de la Universidad de Cambridge han advertido sobre un futuro próximo en el que herramientas de inteligencia artificial podrían influir de manera decisiva en las decisiones que las personas toman en línea, desde qué productos comprar hasta por quién votar.

Este fenómeno, conocido como la “economía de la intención”, marcaría un cambio fundamental en la forma en que se utiliza la tecnología para entender y predecir el comportamiento humano, con posibles implicancias preocupantes para la sociedad.

Cómo la IA manipularía a los usuarios a tomar decisiones

Según el estudio realizado por el Leverhulme Centre for the Future of Intelligence (LCFI) de Cambridge, esta nueva economía se plantea como sucesora de la llamada “economía de la atención”. Durante años, plataformas como Facebook e Instagram han basado su modelo de negocio en mantener a los usuarios enganchados para mostrarles anuncios dirigidos.

A través de los modelos,
A través de los modelos, las empresas tendrán la capacidad de predecir comportamientos y ofrecer productos con mucha más personalización. (Imagen Ilustrativa Infobae)

En la economía de la intención, en cambio, se comercializarán señales digitales más profundas: los motivos, planes y deseos de las personas serán analizados, previstos e incluso moldeados por sistemas avanzados de IA.

“Durante décadas, la atención ha sido la moneda de Internet”, explicó Jonnie Penn, historiador de la tecnología del LCFI a The Guardian. “Compartir tu atención con plataformas de redes sociales impulsó la economía en línea. Pero, si no se regula, la economía de la intención tratará tus motivaciones como la nueva moneda. Será una fiebre del oro para aquellos que busquen influir, dirigir y vender las intenciones humanas”.

En la economía de la atención, los anunciantes compran espacios publicitarios en tiempo real o por adelantado. Por ejemplo, pueden adquirir un mes de espacio en un cartel publicitario para captar la atención de los consumidores. En la economía de la intención, las herramientas de IA podrán ir más allá al acceder y analizar datos intencionales, conductuales y psicológicos de los usuarios en tiempo real.

Un ejemplo de este cambio es el uso de modelos de lenguaje como los que salen de herramientas como ChatGPT. Estos modelos son capaces de procesar y responder a consultas en el momento y de anticipar y guiar las decisiones futuras de los usuarios.

A través de los modelos,
A través de los modelos, las empresas tendrán la capacidad de predecir comportamientos y ofrecer productos con mucha más personalización. (Imagen Ilustrativa Infobae)

Una situación real en este posible escenario sería un asistente de IA podría preguntar: “¿Has considerado ver la nueva película de Spider-Man esta noche?”, y si el usuario menciona sentirse cansado o abrumado, el sistema podría sugerir: “¿Te reservo esa entrada para la película que mencionamos?”.

El estudio de Cambridge advierte que estos escenarios no son solo hipotéticos, sino que están respaldados por capacidades técnicas ya existentes. Los modelos avanzados de IA podrían personalizar las recomendaciones en función de factores como el lenguaje, la política, la edad o las preferencias psicológicas del usuario, maximizando las probabilidades de obtener un resultado deseado para quienes compran estas herramientas.

La forma en la que la IA manipulará

Un punto clave del informe es el papel de los grandes modelos de lenguaje en esta nueva economía. Según los investigadores, estos sistemas podrían “anticipar y dirigir” las acciones de los usuarios al emplear datos personales recogidos de interacciones previas. Esto plantea el riesgo de que las conversaciones con IA sean manipuladas para servir intereses comerciales o políticos.

Un ejemplo citado en el estudio es Cicero, un modelo de IA desarrollado por Meta que ha alcanzado un nivel humano de habilidad para jugar Diplomacy. Este juego requiere comprender y predecir las intenciones de los oponentes, lo que demuestra cómo la IA puede inferir intenciones complejas y actuar en consecuencia.

A través de los modelos,
A través de los modelos, las empresas tendrán la capacidad de predecir comportamientos y ofrecer productos con mucha más personalización. (Imagen Ilustrativa Infobae)

Según los investigadores, este tipo de tecnología podría usarse para influir sutilmente en las preferencias del usuario, desde hacer una reserva en un restaurante hasta moldear sus opiniones políticas. Al recopilar y analizar datos generados por los propios usuarios, las herramientas de IA serían capaces de adaptar sus respuestas en tiempo real para lograr objetivos específicos.

Los expertos advierten que la implementación masiva de estas tecnologías sin una regulación adecuada podría tener consecuencias graves para instituciones fundamentales como la democracia, la prensa libre y la competencia de mercado.

“Deberíamos empezar a considerar el impacto que un mercado de estas características podría tener en nuestras aspiraciones humanas, incluyendo elecciones libres y justas, antes de convertirnos en víctimas de sus consecuencias no deseadas”, señaló Penn.

El informe menciona además que gigantes tecnológicos como Meta ya podrían estar sentando las bases para monetizar estas capacidades. Un posible escenario sería la subasta de intenciones de los usuarios, donde empresas pujarían por datos que revelen, por ejemplo, el interés de una persona en reservar un vuelo o un hotel.

Frente a este panorama, los investigadores subrayan la importancia de establecer regulaciones que limiten el alcance de la economía de la intención antes de que se consolide como una norma. Sin controles, las personas podrían enfrentar una pérdida de privacidad y autonomía, mientras que los actores más poderosos del mercado obtendrían beneficios desproporcionados a costa de la libertad individual.

Guardar