Qué es el Modo Escudo que habilitó Twitch

La plataforma da una nueva herramienta a los usuarios para evitar los mensajes de odio

Guardar
La plataforma ajusta la manera en la que se configura la seguridad en los chats. (Foto: FreePik)
La plataforma ajusta la manera en la que se configura la seguridad en los chats. (Foto: FreePik)

Con el objetivo de disminuir los comentarios de odio que generan incomodidad en la comunidad, Twitch lanzó un Modo Escudo que ayudará a frenar esa situación al bloquear palabras prohibidas.

Esta es una herramienta de seguridad que se suma a otras que tiene la plataforma de streaming, aunque es mucho más completa porque se basa en combinar diferentes alternativas, dando la opción de configurar los ajustes de manera personalizada.

De esta forma serán los propios usuarios quienes organicen la configuración a su gusto para que en el chat de su transmisión se bloqueen o lancen alertas de este tipo de mensajes, además los moderadores también contarán con facultades para ayudar a cumplir con esa gestión.

Te puede interesar:

La plataforma ajusta la manera en la que se configura la seguridad en los chats.
La plataforma ajusta la manera en la que se configura la seguridad en los chats.

Cómo es el modo escudo de Twitch

Varias de las funciones de esta nueva herramienta ya las conocen los usuarios de la plataforma, pero precisamente eso es lo que busca la nueva opción: reunir todos los elementos de seguridad y presentarlos en un formato mucho más sencillo de configuración.

Así que en esta opción aparecerán funciones como modos de canal, para que en el chat solo haya seguidores o suscriptores, opciones de verificación, con teléfono o correo, y niveles de AutoMod.

Este modo se puede abrir desde el canal, el Administrador de transmisión o la Vista de modulación, donde aparecerán todas las funciones para personalizar la moderación de contenido según los criterios de cada creador de contenido.

Además, para el chat hay comandos como ‘/escudo’ y ‘/escudo desactivado’, con el que se pueden activar las configuraciones previas y que el moderador también las vea.

Cuando esté habilitado el escudo está la posibilidad de restringir ciertas palabras o expresiones, por lo que si un usuario las utiliza quedará bloqueado. Esto se configura yendo a la opción ‘Términos y frases’.

Adicionalmente, los creadores de contenido tendrán acceso a un listado con los perfiles bloqueados, allí podrán eliminarlos, mantenerlos así o directamente informar a Twitch sobre la situación.

Todo esto permite que los creadores puedan construir una comunidad ajustada a su tipo de stream, para prevenir comentarios de odio, especialmente al tratar temas delicados o que generarán polémica por divisiones políticas, religiosas, de nacionalidad, raza u orientación sexual.

Te puede interesar:

La plataforma ajusta la manera en la que se configura la seguridad en los chats.
La plataforma ajusta la manera en la que se configura la seguridad en los chats.

Seguridad en Twitch para los menores de edad

La plataforma de streaming anunció a por medio de su página web que está iniciando el proceso de identificación de cuentas que pertenecen a usuarios menores de 13 años de edad por motivos de seguridad.

Si bien Twitch está intentando eliminar a estos usuarios, esto no implica el descuido de aquellos que no fueron detectados. En su publicación oficial, el servicio de streaming indicó que tendrá una actualización en sus políticas de moderación para dar prioridad a todos los reportes que sean registrados como provenientes de cuentas de menores de edad.

También se habilitó la opción de bloqueo de mensajes de desconocidos en el caso de los usuarios en general. De igual forma, las búsquedas de “ciertos términos” fueron prohibidas por la plataforma, aunque no se indicó a qué términos se refiere.

Además, la aplicación indicó que ha profundizado su colaboración con instituciones que reportan a la plataforma sobre el comportamiento de los usuarios, lo que involucra aquellas prácticas relacionadas con el acoso a menores en otros sectores para que así se pueda aumentar la capacidad de monitorear los comportamientos de los usuarios que muestren señales de acoso.

Seguir leyendo:

Guardar