La plataforma de videos YouTube volvió a utilizar más moderadores humanos para analizar contenido dañino, luego de que los sistemas automáticos utilizados por la compañía eliminaran vídeos de la plataforma en exceso.
Entre los meses de abril y junio, YouTube eliminó más de 11,4 millones de videos por infringir las normas de la plataforma, una cifra bastante más elevada que la del mismo periodo el año anterior, cuando retiró alrededor de nueve millones de videos. También se eliminaron más de 2,13 mil millones de comentarios durante ese mismo período.
Esta cifra alta elevada de clips eliminados se debió a las medidas tomadas por la compañía para reducir el personal en sus oficinas con motivo de la pandemia de la Covid-19. Por esta razón, YouTube comenzó a dar a su sistema de Inteligencia Artificial (IA) una mayor autonomía para evitar que los usuarios de la plataforma vieran videos violentos, de odio u otros contenidos dañinos o de desinformación.
“Dependemos temporalmente más de la tecnología para ayudar con parte del trabajo que normalmente realizan los revisores humanos, lo que significa que estamos eliminando más contenido que puede no infringir nuestras políticas”, señaló YouTube en un comunicado.
Ahora, el director de Productos de YouTube, Neal Mohan, afirmó en una entrevista al diario Financial Times que han recuperado al equipo de moderadores humanos, ya que a pesar de que la tecnología puede eliminar de forma rápida contenidos claramente dañinos, sus capacidades tienen límites.
En este sentido, los algoritmos pudieron identificar videos que podrían ser potencialmente dañinos, pero en varias ocasiones no fueron tan buenos a la hora de decidir qué debería eliminarse.
“Ahí es donde entran nuestros revisores humanos capacitados”, señaló Mohan, quien ha añadido que tomaron los videos destacados por las máquinas y después “tomaron decisiones que tienden a ser más matizadas, especialmente en temas como el discurso del odio, la desinformación médica o el acoso”.
Sin embargo, uno de los beneficios que tienen los sistemas automáticos de YouTube es la velocidad con la que logran analizar el contenido dañino. Mohan subrayó que más del 50 por ciento de los 11,4 millones de videos eliminados de la plataforma durante el segundo trimestre del año fueron retirados sin que un solo usuarios real de YouTube los hubiera visto, mientras que más del 80 por ciento fueron retirados con menos de diez vistas.
“Nuestros sistemas de denuncia automática detectan la mayoría de los comentarios que retiramos, pero también pueden denunciarlos los informadores humanos. Contamos con equipos de revisores en todo el mundo que analizan los comentarios denunciados y retiran el contenido que infringe nuestras condiciones del servicio o dejan publicado el que consideran que no las infringe”, se menciona en el informe de transparencia publidado por la compañía la última semana.
Los motivos por los cuales se han retirado canales de YouTube
La mayor parte de las cancelaciones de canales se deben a que las cuentas se dedicaban a enviar spam o mostrar contenido sexual para adultos, lo cual representa una infracción de las normas de YouTube.
“Los canales se cancelan cuando reciben tres faltas por incumplimiento de las normas de la comunidad por haber infringido varias políticas distintas en un periodo de tres meses. En estos casos, se categorizan con una etiqueta específica llamada Infracciones de varias políticas porque se considera que el único objetivo de estas cuentas era infringir más de una política”, explicó la compañía en su informe.
MÁS SOBRE ESTE TEMA: