La tragedia de Nueva Zelanda transmitida por Facebook Live evidenció la ineficiencia de las compañías para censurar las "masacres virales"

Especialistas aseguraron que Facebook no ha hecho lo suficiente para frenar la difusión de contenido violento

Guardar
Imagen tomada del video del tiroteo en Nueva Zelanda transmitido en Facebook Live. (Foto: AFP)
Imagen tomada del video del tiroteo en Nueva Zelanda transmitido en Facebook Live. (Foto: AFP)

La terrible violencia con la que actuó el pistolero que asesinó a 49 personas en una mezquita de Nueva Zelanda fue transmitida a todo el mundo sin censura a través de la plataforma de Facebook Live.

A pesar de los esfuerzos de los equipos de compañías como YouTube y Facebook por eliminar el contenido violento, la tragedia en Oceanía ha demostrado que las grandes empresas tecnológicas no pueden controlar las "masacres virales".

Cada que el personal o los sistemas de las empresas bloquean uno de los videos del atacante disparando a las personas sin piedad, se suben tres más al mismo tiempo.

Facebook dijo el viernes que eliminó "rápidamente" el video del ataque en Christchurch, Nueva Zelanda, que fue transmitido en vivo por la red social, y ofreció sus condolencias a las víctimas.

El atacante de transmitió el crimen por Facebook Live. (Foto: Facebook)
El atacante de transmitió el crimen por Facebook Live. (Foto: Facebook)

"La policía nos alertó sobre un video en Facebook poco después del inicio de la transmisión en vivo y eliminamos rápidamente las cuentas de Facebook e Instagram del tirador, así como el video", dijo el grupo en Twitter.

"También estamos eliminando cualquier elogio o apoyo a este crimen y al (o los) tirador (es) apenas nos vamos enterando", indicó.

"Nuestros pensamientos están con las víctimas, sus familias y la comunidad afectada por los horrendos tiroteos en Nueva Zelanda", apuntó.

La AFP analizó una copia del video publicado en Facebook Live, que muestra a un hombre blanco de pelo corto yendo en coche hasta la mezquita Masjid al Noor. Cuando entra en el lugar empieza a disparar. Al menos 49 personas murieron como consecuencia de los tiroteos el viernes en esta mezquita del centro de Christchurch y en otra de Linwood, en las afueras.

La policía neozelandesa pidió a la gente no compartir el video.

La policía de Nueva Zelanda solicitó no compartir el video. (Foto: Tessa BURROWS / AFP)
La policía de Nueva Zelanda solicitó no compartir el video. (Foto: Tessa BURROWS / AFP)

"Seguiremos trabajando directamente con la policía de Nueva Zelanda", aseguró Facebook.

A pesar de los intentos de la compañía de Mark Zuckerberg por prohibir el material de aproximadamente 17 minutos, en YouTube y otros sitios se continúa replicando.

Las empresas tienen sistemas automatizados y monitoreo humano para contrarrestar la difusión de este tipo de materiales, pero los críticos aseguran que no está funcionando.

"No hay excusa para que el contenido de una transmisión en vivo siga circulando en los medios sociales ahora", dijo Lucinda Creighton, ex ministra del gobierno de Irlanda y consultora del Proyecto Auditor de Extremismo, que busca remover contenido violento de internet.

Las plataformas en línea "dicen tener su propia tecnología pero no sabemos qué es eso, no hay transparencia y obviamente no está funcionando", agregó.

Facebook aseguró que hace lo posible por retirar el video de su plataforma. (Foto: LOIC VENANCE / AFP)
Facebook aseguró que hace lo posible por retirar el video de su plataforma. (Foto: LOIC VENANCE / AFP)

La organización ha desarrollado tecnología que censuraría ciertos contenidos violentos y se la ha ofrecido a compañías de internet, pero ha sido rechazada.

Twitter y YouTube aseguraron que están trabajando en remover de sus plataformas el video de la masacre tal y como lo solicitaron las autoridades locales.

A través de un vocero, la red social Twitter aseguró que estaba manejando con mucho rigor el tema y reveló que tenía un equipo dedicado a remover el video.

"Nuestros corazones están rotos por la terrible tragedia de este día en Nueva Zelanda. Por favor, sepan que estamos vigilantes para eliminar cualquier contenido violento", declaró YouTube a través de un tuit.

Jennifer Grygiel, profesora de comunicación de la Universidad de Syracuse que investiga las redes sociales, aseguró que las compañías están haciendo muy poco por prevenir la difusión del contenido violento.

"Facebook es una plataforma no moderada que puede transmitir cualquier cosa que tú quieras", expresó.

La maestras recordó que Facebook no ha implementado ninguna medida sustancial desde que en 2017 se transmitió un asesinato en vivo en Cleveland, Ohio.

Para Grygiel, se ha convertido en algo común que los perpetradores utilicen los medios sociales para difundir actos de violencia, por lo que se necesita más gente que vigile y remueva los videos.

"Ellos tienen herramientas de monitoreo de palabras claves y personas que vigilan y remueven el material ligado a ellas", explicó.

La profesora fue enfática en que la inteligencia artificial puede ayudar a remover el contenido violento, pero "no hay algoritmo diseñado para esto, porque es imposible predecir el futuro".

Con información de AFP.

Guardar