Meta ya está revisando los problemas que la semana pasada surgieron con los sistemas de moderación de Threads e Instagram, que llegaron a bloquear contenido y eliminar cuantas que no habían cometido ninguna infracción, que la compañía identifica en herramienta que "se rompió".
La semana pasado, algunos usuarios de Threads e Instagram se quejaron de que sus cuentas habían sido bloqueadas o eliminadas después de que el sistema identificara erróneamente sus contenidos como falsos o controvertidos.
El responsable de estas dos plataformas, Adam Mosseri, aseguró que ya estaban investigando este fallo en el sistema de moderación automática, y unos días después confirmó que incluso habían encontrado fallos y los habían corregido.
En respuesta a la duda de un usuario, Mosseri compartió que para las revisiones, los empleados necesitan contexto para poder determinar si ha habido una infracción o no. Pero este paso falló debido a que una de sus herramientas "se rompió y no mostraba suficiente contexto".