Facebook o Fakebook

Guardar
Mark Zuckerberg, CEO y fundador
Mark Zuckerberg, CEO y fundador de Facebook, la compañía que quedó en el ojo de la tormenta por la violación de los datos de sus usuarios

El riesgo, y la amenaza, de vivir atrapados por un algoritmo es real. El placebo digital que generan las burbujas informativas es tan sedante como artificial. Y peligroso. Alimenta nuestros prejuicios, ofreciendo contenidos que han sido identificados como convenientes —por complacientes y dóciles— para nuestras convicciones. Secuestrada nuestra capacidad de elección consciente, nos sumimos en un entorno de autoafirmación, cada vez más excluyente y reverberante. El eco se apodera de la conversación. Y lo que escuchamos no son otras voces —otros argumentos, otros datos, otras ideas— sino nuestra propia voz.

En la pasada campaña electoral norteamericana vivimos, intensamente, en una burbuja de contenidos generada automáticamente por algoritmos que procesan big data electoral. La robotización de la comunicación política se ha consolidado de manera extraordinaria. De los trolls a los bots. Lo importante era alimentar el engagement (la actividad e interacción constante del internauta con la oferta de contenidos) de los electores y activistas digitales, incluyendo noticias equívocas, inexactas… El hecho de que la difusión de noticias falsas en Facebook generara reafirmación agitada entre los seguidores de Donald Trump, por ejemplo, fue el resultado lógico de la aplicación de las técnicas denominadas black hat (posicionamiento artificial en redes para conseguir relevancia e influencia).

Además, hay que tener en cuenta otro dato importante: casi el 50 % de los norteamericanos se informaron sobre las elecciones presidenciales a través de Facebook. Es un efecto directo de la desintermediación informativa a la que las redes sociales nos están acostumbrando al recibir los contenidos. Estas burbujas de información o filter bubble influencian a los usuarios, porque les contaminan. Acaban ofreciéndoles contenidos en función de sus preferencias y las de sus contactos. Esta situación agrava el aislamiento informativo, e irrumpe la posverdad (palabra del año para el Diccionario Oxford), en la que las informaciones rigurosas tienen menos influencia que las creencias y las emociones personales. El prejuicio es más reconfortante que el juicio. Facebook ya realizó pruebas alterando el suministro de noticias en determinados usuarios para comprobar si al recibir noticias positivas o negativas, ellos también cambiaban su estado de ánimo. El resultado fue que sí, que los usuarios son influenciables. Lo mismo sucedió con The Guardian, que realizó un experimento con varios lectores. El resultado fue alarmante.

Las redes, sobre todo Facebook, están empezando a reaccionar por miedo reputacional. En el mes de octubre, Facebook y Twitter se unieron a la iniciativa de Google, First Draft Coalition, con el objetivo de combatir la difusión de noticias falsas. Y, días antes de las elecciones estadounidenses, Facebook implementó un sistema de suspensión automática para evitar la difusión de dichos contenidos. Pero esa capacidad discrecional también puede servir para otras prácticas como la elaboración de listas negras, las sospechas de partidismo y, en definitiva, la ruptura de la neutralidad de la Red en pro de la veracidad informativa. En esta línea, The New York Times ha desvelado que Facebook estaría probando una herramienta para ocultar determinadas informaciones por zonas geográficas, con el objetivo de contentar al régimen chino.

Siendo Facebook un medio de referencia para muchos usuarios, y viendo la posible influencia que podía haber tenido en el resultado de las elecciones americanas, muchos usuarios realizaron críticas sobre la permisividad en la publicación de estas noticias. A raíz de dichas críticas, Mark Zuckerberg publicó una nota en la que exponía siete medidas para tratar de atajar el problema. Estas medidas proponen reforzar los algoritmos para la detección de noticias falsas, facilitar la denuncia por parte de los usuarios, ofrecer informes sobre ellas, poder calificarlas como dudosas, dar más visibilidad a contenidos de referencia y atacar los ingresos que sean generados por informaciones falsas. Pero, la alteración de los algoritmos podría modificar una de las principales fuentes de ingresos de Facebook: la enorme tarta de la inversión publicitaria segmentada. ¿Cómo resolverán este conflicto de intereses?

Estamos en un momento crucial. Prevenirnos del algoritmo que nos seduce y reduce, porque nos convierte en adictos de nuestros propios prejuicios, es clave si queremos una sociedad más conectada pero más libre.

El black hat

De siempre el black hat se ha asociado con estrategias poco éticas o que intentan aprovechar agujeros para tener una cierta ventaja sobre el resto. Es decir, no usan técnicas ortodoxas e intentan hacer trampas. Sobre todo, se asocian siempre con el mundo SEO. Al inicio de los primeros buscadores, una estrategia que se utilizaba mucho era intentar posicionar una página por el nombre de la competencia poniendo cientos de veces en el código el nombre de aquella marca para que el buscador pensara que tenía mucha relevancia.

En Black Hat World se centran en estrategias black hat para ganar posicionamiento en el mundo SEO o visibilidad en redes sociales. Es un sitio interesante, no por el tema de la compra-venta de followers o likes, sino porque, a veces, se pueden encontrar consejos interesantes en los foros sobre cómo hacer para posicionar un contenido o información respecto de un plugin, etc. Otra página similar, respecto del tema SEO, sería, por ejemplo: https://www.warriorforum.com

Para la compra-venta de followers o likes hay muchas opciones. Black Hat World es solo un marketplace. Como se puede ver, hay sitios especializados, aunque plataformas como Amazon o eBay no se quedan atrás a la hora que haya usuarios que ofrezcan este tipo de productos. Algunos lugares donde poder comprar followers o likes:

¿Cómo se generan estos seguidores falsos?

En estos momentos las granjas para poner en marcha cuentas falsas están empezando a ser superadas por herramientas de software. Por ejemplo, TweetattacksPro permite la creación de centenares de cuentas en Twitter permitiendo la generación de correos electrónicos para la confirmación de cuenta, ofuscación de proxy y otros elementos que permiten su puesta en funcionamiento. http://bit.ly/2GvnUkq

Otra herramientas que permite la creación de correos electrónicos e incluso teléfonos para la verificación de cuentas es: http://bit.ly/2GqZbxF

¿Cómo se gestionan estas cuentas?

Una de las técnicas que utilizan es el uso de proxies para disfrazar la IP desde la que se gestionan las múltiples cuentas de Twitter o de otras redes sociales. Es decir, si Twitter detecta que desde la misma IP se están gestionando 100 cuentas las cancelará. Utilizando un proxie se puede enmascarar y darle a cada una de ellas una ip diferente. En este punto también encontramos servicios especializados:

Stupid Proxy
Buy Proxies
Para su gestión también encontramos software especializado como ContentStudio.io que permite la gestión de multitud de cuentas simultáneamente. De esta categoría la verdad es que se pueden encontrar muchas herramientas, por ejemplo:

TwtDominator 
SupaGrowth 
FollowingLike 
De todas maneras las resoluciones de las redes sociales como Twitter, para luchar contra la automatización imagino que pondrán cada vez más difícil que puedan actuar sin problemas. Sin ir más lejos,Twitter ha lanzado nuevas normas de publicación que van a afectar tanto a cuentas verificadas como a las que no lo están: https://bit.ly/2GaLsvj

Por lo tanto, ya no son solo las ip lo que van a tener en cuenta. Si hay varias cuentas que publican el mismo o similar contenido simultáneamente, o si hacen like o RT a la vez se les va a considerar cuentas bot y posiblemente pasen a ser baneadas. Como vemos, la batalla entre unos y otros se está poniendo interesante. Parece que a las redes sociales les interesa poner cerco a este tipo de cuentas y cada vez se lo van a poner más difícil.

MÁS SOBRE ESTE TEMA:

Guardar