Facebook comenzó a notificar cuando una publicación es moderada por mecanismos automáticos

Se implementó esta herramienta, tras la recomendación de su Consejo asesor de contenido

Guardar
Facebook sumó una nueva herramienta
Facebook sumó una nueva herramienta para informar a los usuarios cuando sus contenidos son moderados por sistemas automatizados (Foto: REUTERS)

Facebook comenzó unas pruebas, tras la recomendación de su Consejo asesor de contenido, para informar a los usuarios cuando una de sus publicaciones es moderada por las herramientas automáticas de la red social.

Facebook publicó este jueves su primer informe, relativo al primer trimestre de 2021, sobre su Consejo asesor de contenido, integrado por expertos externos y que tiene como función revisar apelaciones de casos de moderación complejos y emitir recomendaciones a la compañía.

Aunque no son vinculantes, la compañía se comprometió a implementar parcial o completamente 14 de las 18 recomendaciones emitidas por el Consejo asesor de contenido durante el primer trimestre de 2021, mientras que tres están en consideración y una se ya se descartó.

Facebook ya comenzó a introducir a modo de prueba algunas de las recomendaciones, como la de avisar a los usuarios cada vez que herramientas automáticas participen en un proceso de moderación contra sus publicaciones.

De momento, esta novedad se está probando entre un número limitado de usuarios y la compañía valorará el impacto de proporcionar estas notificaciones.

Durante el primer trimestre de 2021 Facebook también lanzó, por consejo de su organismo de expertos, nuevas experiencias para proporcionar a los usuarios más información sobre por qué se eliminan sus publicaciones.

En el caso de las notificaciones por discurso del odio, Facebook sumó un clasificador adicional con el que puede predecir qué tipo de odio está presente en el contenido: violencia, deshumanización, mofarse de crímenes de odio, comparaciones visuales, inferioridad, desprecio, blasfemia, exclusión o calumnias.

Esta información más específica sobre la moderación del discurso del odio ya se proporciona a los usuarios de Facebook en inglés, y la compañía se extendió a extenderla a más idiomas en el futuro.

Asimismo, Facebook actualizó su política sobre organizaciones e individuos peligrosos y creó tres clasificaciones de moderación de contenidos en función de la severidad, añadiendo definiciones de términos clave.

Se incorporó la figura de “experto” en los grupos

Otra de las novedades que anunció la compañía es que ahora los administradores de Grupos de Facebook cuentan con una herramienta que les permite designa a algunos usuarios como expertos en un tema para facilitar la interacción y el intercambio de información.

Los usuarios designados como expertos en un Grupo se destacarán de entre el resto de miembros por una insignia que acompañará su nombre, y que hará saber a los demás que son personas con conocimientos destacados en una materia.

Facebook presentó este martes la nueva figura, una nueva herramienta a disposición de los moderadores por el momento solo en un conjunto limitado de Grupos -tanto en móvil como en la versión de escritorio de la red social-.

De esta forma, los administradores pueden colaborar con los expertos para ofrecer sesiones de preguntas y respuestas, compartir distintas perspectivas sobre un tema o responder a las dudas que planteen los usuarios, como explica la compañía en su blog.

Los expertos, además, podrán indicar los temas en los que destacan, una función en pruebas limitada por el momento a Gaming y Fitness y a partir de la cual los administradores podrán localizar a expertos, aunque no sean miembros de sus grupos. Los expertos también podrán enviar invitaciones automáticas para que los usuarios interesados en determinados temas se unan a un grupo.

La compañía, además, adelantó en la misma publicación que este verano las salas de audio en directo llegarán a los Grupos.

(Con información de Portaltic)

Seguir leyendo:

Guardar