Hay una realidad que afecta a todos los juegos multijugadores online: el nivel de toxicidad con el que se expresan algunos jugadores, lo que afecta seriamente la experiencia para otros, que se ven expuestos a diferentes tipos de violencias. Con los juegos competitivos esto es algo que se ve aún más resaltado. Parte de ello tiene que ver con el mal uso y abuso de las herramientas que los títulos ponen a disposición para que los usuarios puedan comunicarse entre ellos, especialmente cuando la propuesta involucra algún nivel de estrategia.
En ese sentido, Riot Games, responsable de -entre otros títulos- VALORANT, buscará disuadir estas actitudes que arruinan la experiencia para el resto de los involucrados con nuevos sistemas incorporados dentro del juego mismo que tratarán de evitar ese tipo de comportamientos en los canales de comunicación.
“Creemos que estamos progresando adecuadamente en este tema, pero somos conscientes de que nos queda mucho trabajo por hacer”, reconocieron a través de la web oficial del juego. Para llevar a cabo esta tarea, Riot aplicará cuatro cambios importantes:
-Sanciones más estrictas dentro de los sistemas existentes (ahora que están más confiados de poder aplicarlo correctamente)
-Moderación de texto más inmediata para evitar prolongar situaciones que tienen tolerancia cero,
-Mejoras para la moderación de voz con informes públicos constantes de las nuevas actualizaciones al sistema
-Un nuevo programa de pruebas regional que se encuentra en etapas tempranas en Turquía e implica una línea operativa con asistentes al jugador que toman medidas en base a una guía designada. Si demuestra su potencial, se evalúa la posibilidad de aplicarlo a otras regiones.
Al día de hoy, el cliente cuenta con dos sistemas de detección de “comunicación no deseada”: los informes de los jugadores y una lista de palabras silenciadas. Los informes ayudan al equipo responsable a alertar sobre ciertos jugadores que incurren en ese tipo de actitudes. Comienzan en forma de advertencias y van incrementando en su sentencia con suspensiones progresivas, hasta bloqueos totales del juego. Así como existe una puntuación de comportamiento, también existe una puntuación de comunicación interna para todos los usuarios. Estas segmentaciones ayudan a identificar a los reincidentes y propensos a estos comportamientos regularmente.
A través del texto que detalló el anuncio, Riot Games también hizo un repaso de la cantidad de restricciones de comunicación aplicadas a usuarios que activaron en base al sistema vigente. Durante el año se aplicó en un promedio aproximado de 300 mil jugadores y en enero de 2022 superó los 411 mil. Las suspensiones se activaron automáticamente cuando el sistema detectó que los jugadores dijeron algo que es considerado abuso en el chat y cuando acumuló suficientes reportes.
En cuanto a una medida más drástica, VALORANT aplicó más de 40 mil suspensiones en cuentas reincidentes en cuanto a tendencias tóxicas a través de los canales de comunicación. La duración de esas suspensiones puede extenderse desde varios desde días, hasta años para los peores casos. La aplicación permanente se reserva para los casos más severos de comportamiento constantemente hostil.
Los gráficos en sí, revelan un dato alarmante: durante el último mes se registró la mayor cantidad de casos, lo cual puede ser positivo y negativo dependiendo de cómo se lo vea. Por un lado, significa que el sistema es capaz de aplicar correctamente sanciones y tiene en cuenta un crecimiento progresivo en la base total de jugadores del shooter. Por otro lado, el sistema no parece poder frenar la toxicidad, ya que esas actitudes sostienen sus números y hasta presentan sus mayores valores en el último mes. En ese sentido, resulta positivo saber que el equipo de social y de dinámicas de jugador apuntará a profundizar el alcance de sus herramientas y la búsqueda de nuevas soluciones.
SEGUIR LEYENDO: