TikTok, la popular red social, ha quedado en el centro de una controversia judicial tras la trágica muerte de Nylah Anderson, una niña de tan solo diez años que falleció al participar en el denominado “desafío del desmayo” (‘blackout challenge’ en inglés).
El reto consistía en colocar objetos alrededor del cuello, como sogas, cinturones e incluso las propias manos, con las cuales se evitaba la respiración hasta provocarse un desvanecimiento.
La madre de Anderson reactivó su demanda contra la plataforma, argumentando que el algoritmo de TikTok le había recomendado el peligroso reto a su hija. La decisión de la madre fue apoyada por el Tribunal de Apelaciones del Tercer Circuito de Estados Unidos en Filadelfia, según informó la agencia de noticias Reuters.
La jueza Patty Shwartz, al emitir su opinión en un tribunal compuesto por tres jueces, explicó que la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 protege a las plataformas en línea de ser demandadas por contenidos generados por terceros. Sin embargo, Shwartz destacó que las recomendaciones directas de contenido realizadas por el algoritmo de TikTok no están amparadas por esta ley.
El fallo, emitido el martes, representa un cambio en las interpretaciones judiciales previas de la Sección 230 que históricamente han eximido a las plataformas de responsabilidad por no impedir la transmisión de mensajes dañinos de un usuario a otro.
La jueza basó su razonamiento en una sentencia de julio del Tribunal Supremo de Estados Unidos, que dictaminó que restringir la capacidad de las plataformas de redes sociales para moderar contenido violaría su libertad de expresión.
El Tribunal de Apelaciones argumentó que cuando una plataforma como TikTok recomienda contenido mediante su algoritmo, está participando en un “discurso de primera parte”, una actividad no protegida por la Sección 230.
Shwartz añadió que TikTok realiza juicios editoriales sobre el contenido que promueve, lo que implica que el algoritmo subyacente de la plataforma realiza una curación activa de los materiales sugeridos a sus usuarios. Este caso marca un precedente significativo, ya que desafía la amplia protección que las empresas de Internet han gozado bajo la Sección 230.
“TikTok toma decisiones sobre el contenido recomendado y promovido a usuarios específicos, y al hacerlo, se dedica a su propio discurso de primera parte”, escribió.
TikTok aún no ha respondido a las solicitudes de comentarios sobre este caso y su posible impacto en la operatividad de sus algoritmos. En su Centro de Seguridad en línea, la red social reconoce que algunos desafíos en su plataforma pueden promover conductas peligrosas, afirmando que sus Normas de la comunidad prohíben los desafíos que puedan conducir a lesiones graves.
“Los desafíos o retos en línea suelen implicar que las personas se graben haciendo algo difícil y lo compartan en línea para alentar a otros a repetirlo. La mayoría son divertidos y seguros, pero algunos promueven conductas dañinas, incluido el riesgo de lesiones graves. Nuestras Normas de la comunidad prohíben los desafíos peligrosos”, establece TikTok en su página en línea.
El número creciente de videos de desafíos en esta plataforma ha captado la atención de adolescentes y adultos jóvenes, quienes son vulnerables a estas tendencias virales debido a la accesibilidad y omnipresencia de las redes sociales. Este fenómeno genera preocupación entre padres y educadores por los riesgos asociados.
Los usuarios son motivados a realizar actividades peligrosas con tal de ganar popularidad y reconocimiento social. Algunos de estos casos han involucrado saltos peligrosos, consumo de sustancias tóxicas y otras acciones que, aunque parecen inofensivas inicialmente, pueden resultar extremadamente dañinas.
La falta de supervisión y la intensa necesidad de aprobación social son factores amplificadores que agravan el problema.
(Con información de Reuters)