El diccionario de Inglés de Oxford se equivocó al ungir “brain rot” (deterioro cerebral) como la palabra del año. En primer lugar, son dos palabras. Pero el verdadero error fue pasar por alto a la legítima ganadora, “Bazofia”, que estaba en la lista de palabras del año del diccionario. Es como si Beyoncé perdiera el premio Grammy en favor de Harry Styles.
“Bazofia” es la palabra perfecta para 2024. Describe la explosión de este año de imágenes generadas por inteligencia artificial en las redes sociales, como “camarón Jesús”. Pero “bazofia” es también la encapsulación perfecta de un fenómeno de hace décadas que explica por qué Internet es así.
Una vez que te das cuenta de los patrones de la bazofia, puedes ver el vínculo entre el contenido de la IA, las recetas virales asquerosas como el pavo de Acción de Gracias, las interminables guías en línea y los vídeos de compras.
Son todos diferentes tipos de bazofia. Lo común es que la gente aprovecha algo que llama tu atención y saca partido de la mecánica de los algoritmos de Internet para llevarlo al absurdo. Y las tácticas que hicieron popular la bazofia se han codificado en el ADN de casi todo lo que se publica o se ve en Internet.
Cómo llegamos a “Jesús gamba”
Las personas con motivos económicos, incluidos estafadores y spammers, siempre están entre los primeros en explotar las nuevas tecnologías.
Después de que ChatGPT y Dall-E de OpenAI se generalizaran hace dos años, los estafadores empezaron a crear imitadores de ChatGPT para que los usuarios hicieran clic en enlaces maliciosos y se apoderaran de sus cuentas online. Los buscadores de dinero rápido también utilizaron chatbots para crear libros incoherentes.
Este año, las imágenes generadas por inteligencia artificial no han dejado de llamar la atención.
Hubo un falso Donald Trump rescatando gatitos, niños espeluznantes haciendo proyectos de arte, perturbadoras imágenes de comida generadas por IA y muchas figuras de Jesús fusionadas con gambas, pulpos o cangrejos.
Las estafas de chatbot y la basura de IA son ejemplos de “bazofia”, que la Oxford University Press definió en su palabra del año como contenido generado mediante IA y “compartido y distribuido en línea de forma indiscriminada o intrusiva, y caracterizado por ser de baja calidad, no auténtico o inexacto”.
Las imágenes generadas por IA no son necesariamente nefastas, pero la proliferación de creaciones absurdas de IA tampoco fue un accidente.
Según un análisis de Renée DiResta y Josh Goldstein, especialistas en desinformación en línea de la Universidad de Georgetown, los spammers producen imágenes extrañas como táctica para ganar seguidores en las redes sociales e intentar ganar dinero.
“Los spammers son oportunistas”, afirma Goldstein en una entrevista. “Se preguntan constantemente: ¿Qué le interesa a la gente en Internet y qué tecnologías hay disponibles?”.
Y al igual que muchas otras formas de spam, la bazofia de la IA se aprovechó de los algoritmos de Facebook. Una vez que las imágenes extrañas generadas por la IA empezaron a tener tracción, Facebook mostró más en los feeds de la gente, creando un bucle viral de auto-refuerzo, encontraron los investigadores.
Meta no respondió inmediatamente a la solicitud de comentarios.
Un giro de la IA en un patrón perenne
La bazofia de la IA es nueva, pero la ingeniería de contenidos hasta extremos absurdos no lo es tanto.
A finales de la década de 2000, empresas de Internet conocidas como “granjas de contenidos” publicaban miles de artículos y vídeos instructivos en línea cada día, como “Cómo organizar una fiesta de la Super Bowl” o “Cómo iniciar sesión como invitado en Rosetta Stone”.
Las granjas de contenidos se las ingeniaron para que los algoritmos de Google mostraran los sitios web de forma destacada cuando se realizaban búsquedas en Internet o en YouTube.
Estas granjas de contenidos eran la bazofia de la IA de su época: generalmente de baja calidad, pero basadas en temas que despertaban la curiosidad de la gente y tácticamente brillantes a la hora de sacar provecho de los algoritmos que recompensaban la atención.
Mucha gente se lamentaba entonces de que la avalancha de información de baja calidad estaba haciendo inútil a Google y convirtiendo Internet en un mar de basura. Hoy se oyen quejas similares sobre el texto y las imágenes generados por la IA.
La siguiente iteración de la bazofia fueron los interminables titulares sensacionalistas, normalmente diseñados para hacerse virales en Facebook, que prometían una recompensa si hacías clic: “un hombre salta a la piscina con un caimán: no creerás lo que pasa después”.
Al igual que con las granjas de contenidos, los titulares clickbait eran novedosos y útiles al principio, pero se copiaron sin cesar y con calidad decreciente hasta que la gente los aborreció. Durante 15 años, “cada oleada de contenidos de baja calidad se ha ido desvaneciendo a medida que los usuarios se volvían menos receptivos a ellos y plataformas como Google y Facebook reducían su visibilidad”, afirma Kyle Byers, de Semrush, que estudia cómo utilizan Google las empresas y las personas.
Pero, en realidad, la bazofia nunca desaparece. A veces intencionadamente, pero a menudo sin darnos cuenta, tú y todos los demás que publican en Internet habéis absorbido técnicas de generaciones de bazofia online.
Se puede ver en cómo las recetas asquerosas de Internet se traducen en menús extraños de restaurantes convencionales. Muchas personas influyentes adoptan técnicas inquietantemente similares que pueden dar lugar a una sosa uniformidad de los vídeos en línea. Muchas organizaciones de noticias, entre ellas The Washington Post, adaptaron lo que funcionaba de los titulares clickbait y las guías prácticas de las granjas de contenidos de hace más de una década.
La bazofia se extiende también al mundo real. Un concurso para parecerse a Timothée Chalamet es encantador, pero la gente no puede resistirse a crear millones de versiones hasta que se convierte en una bazofia.
Nos guste o no, ahora todo está teñido por generaciones de bazofia en línea. Los detalles de la bazofia pasan de moda en moda, pero la bazofia nunca muere.
(c) 2024, The Washington Post