“Internet se siente vacío y sin gente. También carece de contenido. En comparación con el Internet de, digamos, 2007 (y más atrás), el Internet de hoy es completamente estéril. Ya no hay ningún lugar adonde ir ni nada que hacer, ver, leer o experimentar”, dice una publicación del blog Agora Road’s Macintosh Cafe. “Sí, Internet puede parecer gigantesco, pero es como un globo aerostático sin nada dentro”.
El post se publicó en enero de 2021 bajo el título: “La teoría de Internet muerto: la mayor parte de Internet es falsa” y su autor responsabiliza a “las corporaciones y entidades gubernamentales” por la decadencia de la red. Como sucede con toda teoría conspirativa, nadie sabe exactamente cuándo y dónde surgió. De hecho, su creador menciona haber leído respecto a esta teoría en otros círculos, pero lo cierto es que el post en cuestión se amplificó a través de medios de comunicación y redes sociales. Se constituyó como piedra angular.
El argumento es que la edad de oro de Internet ya quedó en el pasado. El contenido orgánico que impulsó el boom de la web en las décadas del 90 y 2000 dio paso a una invasión de bots, de contenido creado artificialmente, que se volvió dominante con el correr de los años. Internet “murió” porque el contenido que consumimos ya no es propiedad de los humanos.
Tres años atrás, cuando aquel post fue publicado, todavía la inteligencia artificial generativa -el ChatGPT y sus derivados- era una ilusión futurista. Si bien los bots ya eran moneda corriente en las redes sociales, el enunciado de la teoría de Internet muerto sonaba un tanto apocalíptico. ¿Por qué Internet estaría muerto si, al contrario, se lo veía rebosante de salud? Hoy, a razón de los avances de la IA, son cada vez más los expertos que señalan que la teoría abandonó su veta conspirativa y se volvió, más bien, profética.
“Me temo que la teoría de Internet muerto podría convertirse en realidad. Los usuarios del Internet del futuro mirarán hacia 2024 como el año en el que la red dejó de ser humana y fue dominada por contenido sintético generado por IA”, remarcó Toby Walsh, profesor de inteligencia artificial en la Universidad New South Wales, en diálogo con Infobae.
Internet luce, cada vez más, como un espacio diseñado por máquinas para el consumo, también, de otras máquinas. En las redes sociales, en especial en X (antes Twitter), se puede certificar: robots que interactúan con robots, mensajes automatizados y distribuidos miles -o millones- de veces. Las interacciones genuinas, el intercambio real que se producía en las distintas comunidades en línea, en foros y las primeras redes sociales, quedaron relegados ante el avance de los bots, la inteligencia artificial y el contenido seleccionado por algoritmos.
“Es extremadamente difícil medir cuánto contenido generado por IA existe. Con la tecnología actual, no podemos detectar dicho contenido de manera algorítmica y confiable. Los expertos han identificado decenas de miles de sitios web generados por IA y nosotros hemos identificado miles de bots sociales administrados por máquinas. Si no se toman medidas técnicas y políticas para regularlo, el volumen probablemente seguirá creciendo y podría crear una contaminación de información significativa”, advirtió Filippo Menczer, profesor de Ciencias de la Computación y director del Observatorio de Redes Sociales de la Universidad de Indiana.
Las estimaciones varían, pero hay consenso entre los especialistas. El contenido sintético, creado por máquinas, ya representa una porción importante de la web y en los próximos años -apenas un puñado de años- podría superar al creado por el hombre. Ya hay estudios que muestran que, por ejemplo, los textos traducidos automáticamente de un idioma a otro ocupan buena parte del contenido en Internet y un informe de la empresa de ciberseguridad Imperva reveló que ya casi el 50% del tráfico proviene de fuentes no humanas.
Desde que la inteligencia artificial se masificó, los sitios web de información que no tienen humanos a su cargo se multiplicaron. NewsGuard, una compañía que se dedica a certificar fuentes de noticias, ya registró 802 páginas web que, escondidas tras nombres genéricos como iBusiness Day, Ireland Top News y Daily Time Update, producen artículos sobre una amplia variedad temática, como política, tecnología, entretenimiento y viajes, todo gracias a las bonanzas de la inteligencia artificial.
Artículos en inglés, español, árabe, chino, ruso, francés, alemán y más que, a menudo, incluyen afirmaciones falsas sobre líderes políticos, sobre muertes de celebridades o simplemente inventan hechos que no sucedieron o describen eventos del pasado como si recién acabaran de ocurrir. Los sitios operan con poca o ninguna supervisión humana. Son máquinas de publicar y publicar notas, a la búsqueda de clics que generen ingresos gracias a la publicidad.
El problema radica en que esas narrativas falsas, en muchos casos, no son identificadas como tales. La aparición de tecnologías como ChatGPT, los denominados sistemas LLM (“grandes modelos de lenguaje”) que pueden entrenarse para emular el estilo de escritura humana, sumado a otros sistemas de generación de imágenes sintéticas como BingAI o Midjounrney, confunden al usuario.
“Por ahora el nivel de reconocimiento es muy bajo. Generalmente en clases o presentaciones hago el ejercicio de preguntar si distintas imágenes o poemas fueron creados por máquinas o por humanos y la mayoría de las personas no acierta el resultado. Justamente el propósito de modelos gigantes de lenguaje o de generación de imágenes sintéticas es imitar la forma en la que hablamos o representamos nuestro entorno los seres humanos. Y eso lo hacen muy bien”, señaló Fredi Vivas, ingeniero y profesor especializado en inteligencia artificial de la Universidad de San Andrés.
Vivas agrega que ya en 2022 -que para la evolución de la IA generativa es historia antigua- el MIT Technology Review advertía sobre cómo el contenido sintético estaba contaminando Internet. Muestra de ello es una de las últimas medidas que tomó Amazon, que limitó a un máximo de tres publicaciones de libros digitales por autor en su plataforma de Kindle. Encontrar literatura original -hecha por humanos- también se está haciendo cada vez más difícil.
Al respecto, la nueva ley de la Unión Europea exige que las plataformas identifiquen y etiqueten los deepfakes. Pero para Toby Walsh no es suficiente. Hace unos años, el experto propuso que los robots deberían identificarse en cada interacción, advertir que son máquinas en lugar de humanos. “Internet está cada vez más lleno de contenido sintético y falso. Es un jardín cerrado, curado por los gigantes tecnológicos, que tienen acceso exclusivo a la poderosa IA”, afirmó.
A partir de 2010, los bots se volvieron cada vez más frecuentes en las redes sociales. Inflar de seguidores una cuenta, generar falsas interacciones, aumentar la cantidad de likes ya eran por entonces prácticas habituales. Pero aquellos primeros robots no tenían la capacidad de generar imágenes, de escribir como humanos en cuestión de segundos, de editar videos como un especialista. Todo eso la IA actual lo hace sin inconvenientes.
La esencia de las redes sociales, ser un espacio de conexión entre humanos, quedó relegada ante el consumo de contenido seleccionado y distribuido por algoritmos sofisticados que predicen aquello que el usuario quiere ver o leer. Muchos de esos contenidos fueron creados artificialmente y las redes sociales no le encuentran solución (si es que la están buscando).
“Con la creciente sofisticación de los modelos de IA generativa, no cabe dudas que una gran cantidad de contenido generado por IA no se detecta. No solo es muy difícil para la mayoría de los humanos, sino también para los algoritmos de aprendizaje automático distinguir entre contenido generado por IA y contenido generado por humanos. De hecho, observamos una cantidad cada vez mayor de contenido sintético en plataformas como Instagram, TikTok o X”, indicó Menczer, según descubrieron en su Observatorio de Redes Sociales.
El fenómeno de “influencers de IA” puede abrir otro cambio de paradigma. TikTok, por caso, ya piensa en la posibilidad de crear influencers virtuales para competir con los influencers de carne y hueso. Quiere competir con ellos por los acuerdos comerciales con las marcas que publicitan en su plataforma. En los últimos meses, en X, desde que las cuentas verificadas reciben recompensas económicas por el engagement que reciben, resulta imposible no toparse con bots, que generan un sinfín de interacciones artificiales o que, en muchos casos, promocionan contenidos sexuales con frases que pasaron por un traductor automático.
“Todos afirman estar combatiendo la actividad de los robots. Elon Musk dijo que estaba trabajando en ello en X. Pero no tenemos acceso a los algoritmos reales que usan las empresas, por lo que no podemos verificar si están haciendo lo que dicen que están haciendo”, planteó a Infobae John Licato, profesor de Ciencias de la Computación de la Universidad del Sur de Florida. “No está claro si empresas como Facebook, X o Reddit tienen una motivación real para reducir la actividad de los bots, porque los bots pueden aumentar la participación e inflar artificialmente el número de suscriptores, lo que a su vez ayuda a generar más ingresos por publicidad”.
Los robots no solo participan de la creación de contenido basura, sino también de su consumo. Las publicaciones realizadas por bots requieren, a su vez, de la participación de otras cuentas artificiales para alcanzar la viralidad. Según Walsh, pronto el 90% o más de los usuarios de X serán máquinas y se hará imposible navegar como en épocas del primer Twitter. “Claramente las plataformas no hacen un buen trabajo al penalizar el contenido IA o no tendríamos granjas de bots y otros dispositivos para manipular nuestra atención”, consideró.
Claro que las plataformas, para su prosperidad, deben encontrar un equilibrio saludable. De lo contrario, en algún momento, la presencia desmedida de contenido basura ahuyentará a los verdaderos usuarios. “Si inundamos las redes de contenido creado por inteligencia artificial con el objetivo de generar views, en el mediano plazo las redes empezarán a perder audiencia. El hecho de que BeReal haya tenido un boom en 2023 no es menor. El slogan de esa red es ‘tu dosis diaria de vida real’. Evidentemente nos habla de una preocupación cada vez mayor de los humanos por la autenticidad frente a un mundo donde cada vez es más difícil distinguir qué es creado por humanos y qué no”, reflexionó Vivas.
Navegar por Internet se ve muy distinto a lo que era en sus primeras décadas. La idea de toparse por casualidad con un contenido original y orgánico, el placer de bucear por la web y dar con un artículo impensado, con un video que se saliera del libreto se desvanece ante la potencia de los algoritmos que le ofrecen al usuario aquello que, intuyen a raíz de su comportamiento, quiere consumir.
La tendencia limita el contenido auténtico. La inteligencia artificial genera material, a menudo replicado, en base a la demanda. Y entrenar a la próxima generación de IA a partir de lo que creó la generación de máquinas actual, según Walsh, podría deformarla. “Es probable que amplifiquemos cualquier sesgo existente y terminemos con contenido cada vez más sintético. Esta es otra razón por lo que la era actual podría ser recordada como la edad de oro de Internet. La mayoría de Internet es contenido de calidad generado por humanos (contenido excelente para entrenar la IA) en comparación con el futuro cercano, cuando el 99% de Internet será contenido sintético generado por IA, irremediablemente sesgado y plagado de errores”, observó el experto.
A medida que el contenido creador por robots sobrepase al artesanal, aquel elaborado por humanos, las grandes compañías tecnológicas tendrán menos datos originales para pulir sus modelos de lenguaje. De hecho, un estudio de mayo del año pasado en el que colaboraron investigadores de Oxford, Cambridge y el Imperial College de Londres mostró que los resultados obtenidos por una IA alimentada de información sintética eran de peor calidad y que incluso podía llevar al sistema al colapso.
En su último libro, Invisible, Fredi Vivas escribió los 10 principios de la IA. Uno de ellos, el principio de calidad, sostiene que todo aquel contenido generado sintéticamente debe alimentarse de contenido creado por humanos para garantizar sus estándares en el tiempo. “Si todo el contenido que está en internet es creado por IA, eso quiere decir que los próximos modelos de lenguaje se nutrirán de ese modelo. Y ahí, como sucede con el principio biológico de la consanguinidad, la calidad será cada vez peor”, acotó.
Internet sigue siendo vasto y no deja de expandirse. Con sus pros y sus contras, la IA transformó la experiencia de navegación. Achicó los márgenes de maniobra, pero le ahorra tiempo al usuario: aquello que quiere consumir lo consigue en cuestión de segundos. Redujo las interacciones humanas e invita, cada vez más, a volver a salir al mundo exterior para conseguir conexiones reales. Y, por último, superpobló la web de bots, que generan un sinfín de contenido sintético; en algunos casos de obvia factura artificial, pero también muchos otros que se camuflan dentro de la selva digital. Las ilustraciones de esta nota, de hecho, las hizo una IA. El texto juro que lo escribió un humano.