Facebook continúa mostrando noticias falsas dentro de la red social. A esa conclusión llegó The Washington Post luego de realizar una investigación sobre el contenido que difunde la red social.
Desde hace un tiempo, la sección Tendencias o Trending Topics de Facebook está gestionada por programas que pueden identificar las notas más leídas. Así, en función de los clicks, la red social decide qué noticias destacar.
En agosto, hubo un episodio que demostró que la inteligencia artificial puede cometer errores graves. Fue cuando, el agosto pasado, un robot de la red social describió a la famosa conductora Megyn Kelly como "traidora" y decía que la cadena Fox News, donde trabaja la periodista, había decidido su despido por ese motivo.
LEA MÁS: Por error, Facebook contó mal las visualizaciones de los videos
Esto dejó en evidencia que tener en cuenta solo el volumen de menciones para difundir una publicación no es suficiente. Es fundamental chequear la veracidad de la información y, claro, transmitirla de manera adecuada. Tareas que, hasta el momento, los robots todavía no son capaces de hacer.
Ese incidente, que se suponía que no se volvería a repetir, no fue único. Desde ese entonces, volvieron a aparecer noticias falsas en la sección Tendencias.
Entre el 31 de agosto y el 22 de septiembre, Facebook publicó, al menos, cinco artículos falsos y tres con información dudosa, de acuerdo con la investigación que llevó adelante The Washington Post.
El 31 de agosto, por ejemplo, se difundió una noticia inventada sobre un administrador de la Universidad Clemson que supuestamente había echado a un hombre del campus porque estaba rezando. Por otra parte, el 8 de septiembre se difundió un artículo de un sitio de sátiras sobre las aparentes funciones mágicas del nuevo iPhone.
LEA MÁS: Facebook comenzó a usar robots y el resultado fue bochornoso
Si se tiene en cuenta que la red social personaliza las noticias según los gustos y comportamientos del usuario y, a su vez, que el análisis se hizo sólo durante el horario laboral, es posible que se hayan cometido muchos más errores.
En un principio, un algoritmo destacaba las noticias populares, y un grupo de editores evaluaba esas notas y las seleccionaba, pero en agosto la política de la empresa cambió y ahora todo quedó en manos de los robots.
LEA MÁS