Riot Games y Ubisoft La Forge, la unidad experimental de la empresa de la famosa empresa de videojuegos, anunciaron hace algunos días que unirían sus bases de datos para desarrollar sistemas de Inteligencia Artificial (IA) más eficaces a la hora de combatir la toxicidad entre jugadores en sus juegos. El plan “Zero Harm in Comms”, nombre bajo el cual comenzó el proyecto, es mucho más complejo de lo que parece y no es la primera vez que se intenta algo similar.
Con el estallido de popularización de los esports, las reglas sobre el intercambio de chat entre jugadores han sido sobre las que menos se han encontrado solución. La masificación de juegos como League of Legends obligó a los usuarios de comunicarse como equipo y, con ello, se hicieron más notorias las dificultades que experimentan los sistemas de detección de comportamiento abusivo dentro de los chats de los videojuegos.
Pero, ¿a qué se le llama comportamiento tóxico? La definición no es fija y no siempre es parte de alguna expresión escrita o hablada, sino también de comportamiento utilizando las mecánicas de juego. Si bien no existe alguna legislación que lo determine, sí se está construyendo jurisprudencia sobre el abuso digital y, a partir de ello, qué tipo de actitudes violentas transgreden la “identidad digital” de los usuarios de distintas plataformas.
Te puede interesar: Switch Voices, la publicidad que da un ejemplo de la violencia de género online
En videojuegos, los sistemas de comunicación suelen tener un formulario de reporte de actitudes violentas. Pero según lo que explicó Yves Jacquier, director ejecutivo de Ubisoft La Forge, dos partes de los jugadores que son testigos de actitudes tóxicas no reportan lo sucedido, inclusive cuando más del 50% de ellos han sido víctimas de esos comportamientos.
Tradicionalmente, los juegos como World of Warcraft (Activision Blizzard) tenían una estructura de detección de palabras “prohibidas”, el mismo que solía implementarse en la mayoría de las experiencias de chat escrito. En 2016, Nature (la revista de investigación científica) reportó lo fácil que era saltar este tipo de “trabas”: quienes querían insultar, lo hacían cambiando las palabras, normalizando términos y usándolos como conceptos violentos, etc.
Hace 6 años, Riot Games (responsable de títulos como League of Legends) contrató un equipo de investigadores para entender las relaciones sociales que provocan estas interacciones en los usuarios. De esta manera, se comenzó a recopilar una cantidad masiva de datos de comportamiento de sus jugadores y se ha buscado desde entonces comprender qué es lo que “enciende la mecha” de las agresiones online.
Los experimentos del equipo resultaron en varias hipótesis sobre el origen de estas actitudes: desde la falta de consecuencias en la virtualidad hasta la construcción del funcionamiento y representación de los personajes, pareciera que han tantas razones por usuarios. Pero a modo de solución de impacto, se comenzaron a probar técnicas de ingeniería social basadas en avisos para “desalentar” el comportamiento negativo. Pero estos mensajes que promueven el buen comportamiento mostraron la reducción del lenguaje ofensivo solo en un 6,2%.
Como los resultados eran más que modestos, Riot Games introdujo The Tribunal, un lugar donde los jugadores y jugadoras pueden censar las normas de la comunidad y definir quiénes serán los “culpables” que merecen un castigo in-game por sus actitudes tóxicas. A pesar de los resultados positivos, la estructura era lenta y no se impactaba todos los problemas a nivel macro, por lo que fue reemplazado en 2014 por otros tipos de censo automatizado que debe ser actualizado de manera constante.
“El gaming es para todos”: Xbox ajusta las reglas
En 2019, Xbox comprendió que su creciente poder sobre el mercado occidental de juegos online podía ser un arma de doble filo. Phil Spencer, cabeza de la división de videojuegos de Microsoft, tuvo la intención de agarrar el toro por las astas y, bajo un posteo llamado “El gaming es para todos”, habló de la necesidad de proteger a todos los usuarios del ecosistema de videojuegos.
La propuesta de Microsoft era obvia: construir un sistema eficiente para detectar la toxicidad en el gaming que también pudiese solucionar los problemas de manera rápida. Así, actualizaron las reglas de la Comunidad de Xbox sobre la responsabilidad de todos los usuarios de mantener “el juego limpio” e inclusive se pusieron en la letra fina de diferenciar lo que es “el picanteo” dentro de la competencia y el insulto directo.
Junto a esta serie de reglas, también se habló de la implementación de filtros dentro de los chats de la comunidad Xbox, donde los jugadores y jugadoras podían “programar” qué tipo de palabras consideraban abusivas. Estos filtros tenían cuatro tipos: Amistoso, Medio, Maduro y sin Filtro, y su nivel de comunicación afectaba las interacciones de Xbox Live.
Con esta idea, la división de Phil Spencer comentó sobre la programación de una IA para filtrar todos los tipos de contenido en Xbox Live, de manera que no solo el texto fuese filtrado, sino todo tipo de contenido. El objetivo era generar un sistema que detecte las “frases tóxicas” y censurarlas para aquellos que no quisieran escucharlas. Pero desde que se propuso, Xbox no volvió actualizar los avances de este plan.
Intel Gaming se anima a la inteligencia artificial
Quienes sí hicieron la prueba de una Inteligencia Artificial que vigile los discursos de los jugadores, fueron los ingenieros de Intel. Con el sistema de Intel’s Bleep, logrado mediante una alianza con la compañía Spirit AI, se comenzó a desarrollar en 2021 una estructura de reconocimiento de discursos de odio.
La propuesta se inspiró en la televisión: su IA taparía con un silbido (o beep) las palabras que estuvieran relacionadas con insultos. Los jugadores y jugadoras podrían también personalizar el nivel de filtrado, de manera que tuviesen el poder de volver a ganar el poder dentro de los intercambios violentos. “La intención de esto siempre fue poner el control en la mano de los usuarios”, declaró Marcus Kennedy, mánager de la división de gaming de Intel, teniendo en cuenta que a veces los insultos “livianos” son parte de los intercambios entre amigos. Aun así, todavía no hay una actualización sobre la herramienta.
Un record que se pierde entre las crecientes actitudes tóxicas
Este año, el equipo de Call of Duty (Activision Blizzard) fue noticia cuando reveló que medio millón de cuentas habían sido banneadas por actitudes tóxicas y que alrededor de 300 mil usuarios debieron cambiar sus alias ofensivos dentro del juego. “Gracias a estos esfuerzos, hemos visto una caída del 55% de palabras ofensivas en tags de clan o nombres de jugadores, algo que aumento año a año”, contó el equipo de manera oficial. Los desarrolladores reconocieron que esto fue logrado gracias a un sistema de filtrado automático, el cual ha despertado controversias por lo mismo que siempre se ha denunciado: una falta de refinamiento.
Mientras tanto, las desarrolladoras de juegos online continúan con la búsqueda de construir un sistema automatizado que logre vigilar de cerca a todos los jugadores de las experiencias masivas y de alguna manera combatir uno de los grandes males de los videojuegos: los trolls violentos.
Seguir leyendo: