Amazon patentó un método que puede aislar a jugadores tóxicos. Creó un sistema que puede identificar a este tipo de gamers. La propuesta de la compañía propone el desarrollo de un sistema que permita “la selección de jugadores conscientes del comportamiento para juegos electrónicos multijugador”.
La presentación de esta idea se realizó originalmente en diciembre de 2017, pero fue aprobada por la Oficina de Patentes y Marcas de Estados Unidos este año. Los sistemas de emparejamiento o matchmaking en los juegos suelen enfocarse en agrupar a los jugadores de acuerdo al nivel de habilidad, pero según propone Amazon, hay otras consideraciones a tener en cuenta.
El documento presentado por la compañía de Jeff Bezos señala que el disfrute de los jugadores puede depender en gran medida de los comportamientos de otros usuarios con los que están emparejados, como la propensión de otros gamers a usar malas palabras o participar en otros comportamientos inapropiados.
Sin embargo, la presentación reconoce que es difícil llegar a una definición clara de “tóxico”. Es clave definir qué es y qué no es un comportamiento tóxico, algo que ni siquiera la inteligencia artificial de aprendizaje automático ha descubierto. Entonces, lo que haría esta tecnología es rastrear el comportamiento de usuarios que tienden a ser violentos en determinados juegos, insultando por ejemplo por voz o texto a otros usuarios.
El sistema detectaría estos actos y pasaría a emparejar a estos usuarios solo con otros que actúen de la misma forma tóxica. La presentación permitiría a los jugadores seleccionar preferencias de conducta y lo que no consideran aceptable. Los jugadores se agruparían en función de estas preferencias.
La toxicidad es un tema que preocupa a muchos miembros de la industria de videojuegos. Allen Brack, presidente de Blizzard Entertainment, responsable de World of Warcraft, entre otros títulos, ha anunciado recientemente una herramienta que, a partir de machine learning, puede reducir el comportamiento tóxico en sus juegos en línea.
Brack anunció que el comportamiento tóxico había experimentado una “disminución increíble” gracias al aprendizaje automático que la compañía había comenzado a implementar. El sistema de inteligencia artificial tuvo en cuenta una variedad de diferentes ortografías para los insultos.
“Hace unos meses, expandimos este sistema a los canales públicos de World of Warcraft y ya hemos visto una disminución en el tiempo que los jugadores disruptivos se quedan a la mitad, y continuamos mejorando la velocidad y la precisión de este sistema”, ha señalado.
Para continuar mejorando la comunidad de Overwatch y luchar contra el chat abusivo, Blizzard también ha aumentado la severidad de las sanciones por mal comportamiento. Hay tres filtros diferentes entre los que los jugadores pueden elegir, desde censurar todas las palabras y frases inapropiadas hasta una configuración “madura” que solo filtra palabras específicas.
Brack explicó que parte de tener una “buena experiencia de juego” mientras se juega Overwatch es asegurarse de que todos se sientan bienvenidos. Esto significa que todos deben sentirse aceptados y respetados en el juego, independientemente de su origen o identidad.
Por su parte, la desarrolladora Valve está tomando medidas para reducir el comportamiento tóxico en el juego Dota 2 y Counter-Strike: Global Offensive, con medidas que incluirán la implementación de un sistema similar al de Blizzard.
Así, presentó meses atrás un nuevo sistema para regular el uso del chat de voz con una automatización de un proceso para silenciar a los jugadores que abusen del chat. Con ello ya no será necesario que los jugadores reporten a los usuarios molestos, pues el sistema los detectará si tienen mal comportamiento. Además, la herramienta notificará a los jugadores con una advertencia en caso de que tengan más denuncias por abuso del chat de lo común.
MÁS SOBRE ESTE TEMA: