Mistral AI ha facilitado a los desarrolladores una herramienta de moderación de contenido para que puedan incorporarla en sus 'chatbots' de manera personalizada, para detectar con ella el contenido no deseado.
El asistente en formato 'chatbot' de Mistral, Le Chat, permite la interacción mediante texto con los modelos de lenguaje de gran tamaño (LLM) de la firma tecnológica. Está diseñado para ser "breve y conciso" y cuenta con un mecanismo de moderación a nivel de sistema personalizable.
La compañía tecnológica ha lanzado la interfaz de programación de aplicaciones (API) de su sistema de moderación, para que los desarrolladores puedan incorporar sus propias barreras de seguridad a nivel de sistema, para detectar contenido no deseado.
"En los últimos meses, hemos visto un creciente entusiasmo en la industria y la comunidad de investigación por los nuevos sistemas de moderación basados en LLM, que pueden ayudar a que la moderación sea más escalable y robusta en todas las aplicaciones", explica en un comunicado publicado en su blog oficial.
Este sistema clasifica las entradas de texto en nueve categorías de contenido: sexual, odio y discriminación, violencia y amenazas, contenido peligroso y criminal, autolesión, salud, finanzas, leyes e información de identificación personal.
El modelo que impulsa este sistema es Mistral 8B (de 8.000 millones de parámetros). Es multilingüe de forma nativa, y ha sido entrenado en español, portugués, inglés, francés, árabe, chino, italiano, japonés, alemán, coreano y ruso. Y actúa tanto con el texto sin formato como con el contenido conversacional.