MADRID, 9 (Portaltic/EP)
Intel ha desarrollado una tecnología, denominada Bleep, que utiliza herramientas de 'hardware' e Inteligencia Artificial (IA) para detectar y filtrar los comentarios tóxicos de otros jugadores durante los chats de voz de las partidas de videojuegos en línea, con lenguaje violento o discriminatorio.
Bleep, de la que Intel mostró una demostración en vídeo durante su participación en la conferencia de desarrollo de videojuegos Game Developers Conference (GDC), el pasado 18 de marzo, se ha desarrollado junto con la compañía Spirit AI, especializada en IA.
La herramienta emplea los sistemas de detección de lenguaje tóxico de Spirit AI y los combina con las capacidades de los procesadores de Intel para acelerar la detección de habla a través de IA.
Este sistema es capaz de detectar y reducir en los chats de voz de los videojuegos en línea las expresiones tóxicas de los jugadores. Funciona tanto en ordenadores portátiles como de sobremesa con procesadores de Intel.
Bleep puede configurarse a través de una serie de ajustes, en los que los usuarios pueden elegir los filtros y las categorías a detectar, como los comentarios contra otras personas por discapacidades o por su aspecto físico, el lenguaje agresivo contra otros jugadores, la discriminación a la comunidad LGTBQ+ o la misoginia.
Asimismo, la herramienta de Intel también es capaz de advertir otras categorías como el uso de lenguaje racista o xenófobo -incluso de la palabra 'negro' en concreto'-, sexualmente explícito, insultos o los eslóganes de nacionalismo blanco.
Los ajustes de esta herramienta permiten que, en cada una de las categorías detectadas, los usuarios puedan decidir si prefieren que se filtren 'ninguno, 'algunos', 'la mayoría' o 'todos' los comentarios inapropiados de los chats de sus partidas.
Actualmente Bleep se encuentra en fase beta, e Intel espera que su desarrollo esté completo y esté disponible para los jugadores durante este mismo año 2021.