Ubisoft y Riot Games se han puesto en campaña para combatir la toxicidad de sus comunidades de la mano de herramientas de Inteligencia Artificial. Su objetivo es bastante obvio: detectar y terminar con las actitudes violentas en los juegos multiplayer.
El proyecto tomó el nombre de “Zero Harm in Comms” y es una iniciativa que apunta a mejorar los sistemas de IA para que “comprenda” los patrones de conductas tóxicas en los intercambios de chat. Esto presupone una mejora a la propuesta de censurar palabras o términos escritos, ya que se ha detectó que el problema detrás de los discursos violentos también puede ser contextual y no precisamente en base a palabras determinadas.
Las dos compañías han construido enormes redes de “deep learning”, una especie de base de datos que procesa información a partir de ciertos parámetros. En este caso, las IA tendrán la función de entrenarse a entender el proceso en que se forman los intercambios tóxicos.
Te puede interesar:
Como parte de la primera etapa del “Zero Harm in Comms”, Ubisoft y Riot generarán un ecosistema entre empresas donde se compartirán todos los datos recolectados sobre este tipo de situaciones. Según lo que explicó Yves Jacquier, director ejecutivo de Ubisoft La Forge (la división experimental de la empresa), dos partes de los jugadores que son testigos de actitudes tóxicas en los chats no reportan lo sucedido y más del 50% de los jugadores han sido víctimas de este tipo de comportamiento. De esta manera, las compañías tampoco pueden confiar en los reportes que llegan a través de su sistema de denuncias y mucho menos cuando están restringidos a su plataforma.
Seguir leyendo: