Así es como los depredadores sexuales utilizan la función “clips” de Twitch para grabar y compartir abusos a menores

Amazon es propietaria de la plataforma de streaming que ahora enfrenta escrutinio

Guardar
La función "clips" de Twitch, que permite grabar momentos de transmisiones, está siendo explotada por depredadores sexuales. (Europa Press)
La función "clips" de Twitch, que permite grabar momentos de transmisiones, está siendo explotada por depredadores sexuales. (Europa Press)

En la primavera boreal de 2023, un niño de 12 años entró en directo en Twitch, el popular sitio de retransmisiones en directo propiedad de Amazon, para comerse un bocadillo y tocar la trompeta. Minutos después, una docena de espectadores se unieron a él. A través del chat de Twitch, uno le pidió que diera una voltereta. Otro le pidió que enseñara los músculos.

En respuesta, el chico se bajó los pantalones. Todo terminó en un instante, pero un espectador, que seguía más de cien cuentas de Twitch que parecían pertenecer a niños, utilizó una función llamada “clips” para capturar el fugaz momento en un vídeo de 20 segundos. El clip se ha visto más de 130 veces.

Twitch tiene previsto ampliar la función “clips” este año. Como parte de la ampliación anunciada anteriormente, la empresa animará a más usuarios a convertir eventos efímeros de retransmisión en directo en vídeos cortos a la carta para mostrarlos en un feed de descubrimiento que se lanzará próximamente, o para exportarlos fácilmente a otras redes sociales, incluida TikTok. Ahora, antes de la medida, los expertos en seguridad en línea advierten de que la herramienta ya está siendo explotada por los depredadores de menores para grabar y compartir el abuso de los usuarios de Twitch menores de edad.

Se ha identificado contenido de índole sexual con menores en al menos 83 clips en Twitch (Archivo)
Se ha identificado contenido de índole sexual con menores en al menos 83 clips en Twitch (Archivo)

Un análisis realizado por Bloomberg News de casi 1.100 clips en Twitch descubrió que al menos 83 de los vídeos cortos contienen contenido sexualizado que implica a niños. El Centro Canadiense para la Protección de la Infancia, que revisó el material, identificó 34 en los que aparecían jóvenes usuarios -principalmente niños de entre 5 y 12 años- mostrando genitales a la cámara, a menudo aparentemente animados por los espectadores durante una retransmisión en directo. Otros 49 vídeos incluían contenidos sexualizados en los que menores exponían partes de su cuerpo o eran objeto de tocamientos.

Según el Centro, los 34 vídeos más atroces han sido vistos 2.700 veces. Los otros vídeos explícitos, según el Centro, han sido vistos 7.300 veces. Cuando un espectador capta una transmisión en directo de un acto de depredación, “se convierte en un registro casi permanente de ese abuso sexual”, afirma Stephen Sauer, director del Centro. “Hay una victimización más amplia que se produce una vez que el livestream inicial y el incidente de grooming han ocurrido debido a la posibilidad de una mayor distribución de este material”, dijo.

Una vez que Bloomberg alertó a la empresa, Twitch retiró el contenido prohibido. “El daño a los jóvenes, en cualquier lugar en línea, es profundamente perturbador”, dijo el director ejecutivo de Twitch, Dan Clancy, en un comunicado. “Incluso un caso es demasiado, y nos tomamos este asunto extremadamente en serio”.

Twitch asegura trabajar diligentemente en la eliminación y prevención del daño a jóvenes en su plataforma (Unsplash)
Twitch asegura trabajar diligentemente en la eliminación y prevención del daño a jóvenes en su plataforma (Unsplash)

Twitch lanzó inicialmente la función de clips en 2016. En el último año, frente a una mayor competencia del sitio de videos cortos TikTok de ByteDance, el equipo de productos de Twitch ha hecho de la expansión de los clips un enfoque importante. Al mismo tiempo, la función de clips se ha mantenido entre las menos moderadas del sitio, según personas familiarizadas con los protocolos de seguridad que pidieron el anonimato al hablar del funcionamiento interno de la empresa.

En el comunicado, Clancy afirmó que “para combatir de forma significativa la depredación infantil” es necesaria la colaboración. Señaló que Twitch se está asociando con varias agencias para hacerlo y ha “hecho progresos significativos”. Al examinar continuamente el contenido en vivo en Twitch, dijo Clancy, la compañía está impidiendo “la creación y difusión de clips dañinos en la fuente”. Twitch también está trabajando con carácter retroactivo para “eliminar y desactivar” los clips dañinos, al tiempo que se asegura de que dichos vídeos “no estén disponibles a través de dominios públicos u otros enlaces directos”.

“Como todos los demás servicios en línea, este problema es uno contra el que seguiremos luchando diligentemente”, añadió.

A lo largo de los años, los ejecutivos de la empresa han luchado para acabar con la captación de menores en Twitch, que alberga más de 96.000 canales en directo y 7 millones de emisores mensuales. En 2022, Bloomberg News informó de que los depredadores de menores utilizan habitualmente Twitch para rastrear a los niños en tiempo real, con más de 297.000 niños aparentemente en el punto de mira.

Los problemas de moderación en Twitch son inherentes al formato en tiempo real de las retransmisiones en la plataforma (Archivo)
Los problemas de moderación en Twitch son inherentes al formato en tiempo real de las retransmisiones en la plataforma (Archivo)

Desde el informe, Twitch ha anunciado varios cambios. La empresa ha introducido un nuevo requisito de verificación telefónica y está desarrollando tecnología para detectar y eliminar cuentas de menores de 13 años. La empresa también ha dificultado la creación de nuevas cuentas a los menores que ya habían sido vetados. Twitch utiliza herramientas de análisis del lenguaje para detectar la captación de menores y tecnología de inteligencia artificial para detectar los desnudos.

En abril, Twitch despidió al menos al 15% de su equipo interno de confianza y seguridad y aumentó su dependencia de proveedores externos para identificar y eliminar contenidos problemáticos. Por el momento, Twitch centra la mayor parte de sus esfuerzos de supervisión en sus retransmisiones en directo, que, según la empresa, se revisan utilizando moderadores humanos, inteligencia artificial y otras herramientas. En cambio, cuando se trata de moderar clips, Twitch confía únicamente en que sus usuarios informen de casos de material sospechoso o molesto.

En el último trimestre de 2022, Twitch detectó 318 casos diarios de captación ostensible de menores, una quinta parte de los cuales condujo a la suspensión de cuentas, según un reciente informe del Comisionado de Seguridad Electrónica de Australia.

Los clips en Twitch representan un desafío para la moderación de abuso en tiempo real (Europa Press)
Los clips en Twitch representan un desafío para la moderación de abuso en tiempo real (Europa Press)

Los expertos afirman que los problemas de moderación son intrínsecos al diseño de Twitch. Normalmente, los sitios de redes sociales como YouTube e Instagram pueden identificar cuando los usuarios intentan subir vídeos abusivos comparando los nuevos contenidos con fuentes anteriores con material similar. En las retransmisiones en directo de Twitch, la depredación de menores se produce en tiempo real, por lo que no hay vídeos anteriores con los que comparar.

Según Lauren Coffren, del Centro Nacional para Menores Desaparecidos y Explotados de Estados Unidos, “la tecnología Hash busca algo que coincida con lo visto anteriormente”. “Livestreaming significa que es totalmente nuevo”.

En abril, un grupo bipartidista de senadores estadounidenses presentó la Ley de Protección de Menores en las Redes Sociales, un proyecto de ley destinado a mejorar la seguridad de los menores en sitios como Twitch, que ofrecen contenidos generados por los usuarios.

Sauer afirmó que ya no se puede confiar en que las empresas de medios sociales se autorregulen. “Llevamos 25 años viendo cómo el sector se regula voluntariamente”, afirmó. “Sabemos que no funciona. Vemos a demasiados niños explotados en estas plataformas y queremos que el gobierno intervenga y diga: ‘Estas son las salvaguardias que tenéis que poner en marcha’”.

©2024 Bloomberg

Guardar