Luego de los hechos ocurridos en Nueva Zelanda, en donde un hombre de 28 años mató a 50 personas en una mezquita en Christchurch, Facebook lanzó una actualización en relación a la detección de contenido violento.
Fue en en esta nueva versión en la que el vicepresidente de contenidos de Facebook, Guy Rosen, obtuvo un nuevo cargo, el de "jefe de identidad", en tan solo por 24 horas.
Fue el periodista tecnológico Alex Hern, del medio informativo The Guardian, quien detectó el error en la actualización que realizó Facebook luego de los hechos ocurridos el pasado 15 de marzo, en Nueva Zelanda, en donde Brenton Harrison Tarrant, autor de los asesinatos, transmitió en vivo la masacre.
A través de un tuit, el periodista hizo una observación a la compañía multimillonaria, propiedad de Mark Zuckerberg, la cual volvió a tener un fallo, esta vez en la actualización que lanzó en versión caché.
Here's a funny thing. Facebook exec Guy Rosen is usually referred to as "VP of Product Management". Yesterday, his statement on Christchurch came as "Head of Integrity". I asked whether he'd been promoted, and they silently edited the post back to "VP of Product Management".
— alex hern (@alexhern) March 22, 2019
"Aquí hay algo gracioso. El ejecutivo de Facebook, Guy Rosen, suele denominarse como Vicepresidente de gestión de productos. Ayer, en su declaración sobre Christchurch llegó como Jefe de integridad. Le pregunté si había sido removido, y de manera silenciosa editaron la publicación a VP de gestión de productos", explicó.
De acuerdo con el periodista especializado, el nuevo cargo de Rosen fue corregido en menos de 24 horas, sin dar mayor énfasis en lo sucedido al devolver a Rosen a su cargo original.
En el comunicado de prensa que la compañía compartió a principios de esta semana, explicó que es complicado monitorear todos los videos se realizan en línea a través de la plataforma.
Facebook fue la plataforma utilizada por el australiano de 28 años de edad en donde transmitió en vivo el ataque de más de 17 minutos de duración, en dos mezquitas en Nueva Zelanda. El tiroteo dejó un saldo de 50 muertos y decenas de heridos.
Cabe señalar que durante una transmisión en vivo, la red social sólo ofrece un único botón con la que los espectadores puedan alertar que el video contiene un "suicidio".
El video fue visto en vivo por 4 mil personas antes de que fuera eliminado. En menos de 24 horas la compañía retiró 1.2 millones de videos del ataque.
Por su parte la ministra de Nueva Zelanda, Jacin Ardern, señaló el papel que juega la red social y las medidas con las que pueden proceder de forma legal. "Ellos son el editor, no solo el cartero. No puede ser un caso que, de todos los beneficios, no exista ninguna responsabilidad".