Xbox añade inteligencia artificial para controlar las malas prácticas en videojuegos

Estos sistemas marcan automáticamente el contenido para revisión humana sin necesidad de un informe del jugador

Guardar
El tercer reporte de transparencia
El tercer reporte de transparencia de Xbox muestra la evolución de su enfoque para crear experiencias de juego más seguras utilizando inteligencia artificial. (Xbox)

Xbox ha intensificado su enfoque en la moderación mediante el uso de sistemas automatizados y herramientas de inteligencia artificial para mejorar el proceso de identificación y revisión de contenido inadecuado.

De hecho, durante el último informe de transparencia de la marca de videojuegos creada y propiedad de Microsoft, se destacó cómo la moderación comunitaria se vuelve cada vez más compleja a medida que la plataforma alcanza a millones de usuarios diarios.

Sin embargo, el reporte que cubre la primera mitad del año 2023, también revela que el 87% de las acciones de moderación se activaron automáticamente, gracias a estas innovadoras tecnologías que ayudan a marcar automáticamente el contenido para su revisión por parte de moderadores humanos, sin necesidad de que los jugadores informen sobre problemas específicos.

La compañía fundada por Bill Gates detrás de Xbox, reconoce la importancia de mantener un entorno de juego seguro y divertido para los usuarios, mientras que ha compartido su compromiso de mantenerse al día con los cambios en la industria que puedan afectar negativamente la experiencia de los jugadores.

Nuevas herramientas

01/03/2021 Recurso juego en Xbox
POLITICA
01/03/2021 Recurso juego en Xbox POLITICA INVESTIGACIÓN Y TECNOLOGÍA MICROSOFT

Dos herramientas clave mencionadas en el informe son parte de esta iniciativa que utiliza la IA como aliada en la lucha contra el contenido inadecuado en Xbox.

La primera es Community Sift, una función de moderación desarrollada por TwoHat, una filial de Microsoft, la cual ha procesado más de 36 millones de informes de jugadores en 22 idiomas, lo que ha permitido evaluar cuáles requieren la atención de un moderador humano.

Pero a pesar de la implementación de este sistema de filtrado, el número de acciones de cumplimiento “reactivas” (aquellas en respuesta a informes de jugadores) no ha aumentado significativamente. Aunque sí se ha observado una disminución en el número total de informes de jugadores, posiblemente debido a un aumento en las acciones “proactivas” implementadas por Microsoft antes de que los jugadores informen un problema.

Para fortalecer estas acciones proactivas, Microsoft utiliza el modelo de inteligencia artificial Turing Bletchley v3, que escanea automáticamente todas las imágenes generadas por los usuarios en la plataforma Xbox.

Este sistema analiza las imágenes y las compara con los estándares comunitarios de la compañía, pasando cualquier contenido sospechoso a una cola para moderación humana. Y como resultado, en la primera mitad del año se bloquearon 4,7 millones de imágenes, lo que representa un aumento del 39% en comparación con los seis meses anteriores.

Campaña contra las cuentas “no auténticas”

Xbox lanzó la función Informe
Xbox lanzó la función Informe de voz, que brinda a los jugadores la opción de capturar e informar sobre chats de voz inapropiados en el juego. (Xbox)

Xbox también tiene un frente abierto contra las cuentas “no auténticas”, que incluyen tramposos, spammers y perfiles que socavan la experiencia de juego. Microsoft ha eliminado 16,3 millones de estas cuentas en la primera mitad de 2023, un aumento del 276% con respecto al mismo período del año anterior.

La mayoría de estas cuentas se eliminan antes de que los jugadores tengan la oportunidad de denunciarlas, lo que refuerza la seguridad y la calidad de la plataforma Xbox.

El informe también revela que la ampliación de la definición de “contenido vulgar” ha llevado a un aumento en las acciones coercitivas contra este tipo de contenido. A pesar de ello, la lucha contra estos contenidos sigue siendo superada en número por otras violaciones, como las malas palabras, el acoso, el contenido sexual para adultos y el spam.

En cuanto a las revisiones de casos de prohibiciones o suspensiones, solo alrededor del 4,1% de más de 280,000 casos se restablecieron en los primeros seis meses de 2023. Esto representa un ligero descenso con respecto al año anterior.

El informe de transparencia resalta la importancia de las acciones proactivas en la moderación de contenidos. Durante los primeros seis meses de 2023, se llevaron a cabo 17,09 millones de acciones de forma proactiva, representando el 87% del total de acciones realizadas en ese período.

Además, más de 4,7 millones de contenidos tóxicos fueron bloqueados antes de llegar a los jugadores, lo que marcó un aumento del 39% en comparación con el período anterior.

La compañía también ha implementado medidas proactivas contra el acoso e intimidación, con un aumento del 95 por ciento en las acciones realizadas en este ámbito, totalizando 84,000 acciones. Y una novedad destacada en la materia es la introducción de la función de informes de voz, que permiten a los jugadores capturar y denunciar el acoso por voz en el juego.

Guardar