Algunos usuarios de Facebook revelaron que, hace unos días, vieron algunas recomendaciones de búsqueda un tanto inquietantes y sexualmente gráficas en esta plataforma, lo que llevó a la compañía a disculparse sin ofrecer una explicación completa.
Después de escribir "video de" en la barra de búsqueda de Facebook, algunas personas dijeron que la herramienta sugería términos obscenos relacionados con actos sexuales y el abuso infantil. Las predicciones de búsqueda del sistema están diseñadas para reflejar búsquedas populares, pero no está claro por qué aparecieron esas palabras.
"Sentimos mucho que esto haya sucedido", explicó la compañía a través de un comunicado. "Tan pronto como nos dimos cuenta de estas recomendaciones ofensivas, las eliminamos. Las predicciones de búsqueda de Facebook son representativas de lo que las personas pueden estar buscando en Facebook y no reflejan necesariamente el contenido real de la plataforma", agregó al respecto.
La compañía no permite imágenes sexualmente explícitas en su plataforma. Sin embargo, Facebook indicó que no sabe por qué esos términos de búsqueda aparecieron en la barra de búsqueda de los usuarios, aunque admitió que está investigando el asunto y ha puesto todos sus esfuerzos para mejorar esa función.
La semana pasada, Facebook tuvo que hacer frente a duras críticas tras la encuesta formulada por The Guardian donde se preguntaba a los usuarios si a los hombres se les debería permitir pedir fotos pornográficas a través de la plataforma social. La empresa señaló que esa encuesta fue un error.
Pero este nuevo capítulo, el de la búsqueda de videos, es el último ejemplo de las molestias que generan las características de autocompletar. Empresas tecnológicas, como Facebook y Google, las diseñaron para proporcionar un atajo para las personas que deseaban buscar algo. Se basan, en parte, en las búsquedas anteriores a los usuarios. Mientras que esas plataformas usan predicciones de búsqueda para ayudar a sus usuarios, las características también pueden elevar el comportamiento repugnante.
En 2016, Google, el motor de búsqueda que domina en el mundo, tuvo que cambiar su herramienta de autocompletar cuando los usuarios recibieron resultados ofensivos después de buscar información sobre mujeres y judíos. Sin ir más lejos, el año pasado, la empresa publicó términos de búsqueda sin sentido cuando uno buscaba información sobre el autor de la matanza masiva en Sutherland Springs, en Texas.
Facebook no respondió a las preguntas sobre su función de predicción de búsqueda y en qué información se basan las sugerencias.