La startup d’intelligence artificielle Mistral dévoile une nouvelle API dédiée à la modération de contenu.
Cette API promet d’apporter une solution innovante et adaptable pour garantir la sécurité des applications en ligne, en s’appuyant sur un modèle finement ajusté, Ministral 8B.
Lire aussi :
- Google peut-il concilier ses engagements climatiques avec son partenariat en Arabie Saoudite, pays dépendant des énergies fossiles ?
- Comment des jeux comme Pictionary et Minecraft peuvent-ils révéler les véritables capacités de raisonnement des modèles d’intelligence artificielle ?
Une modération personnalisable pour divers besoins
L’API de modération de Mistral s’appuie sur la même technologie utilisée dans leur plateforme de chatbot, Le Chat. Ce qui la distingue, c’est sa capacité à s’adapter aux besoins spécifiques de chaque application. Selon Mistral, cette API peut analyser des textes bruts ou conversationnels, offrant ainsi une grande flexibilité pour divers cas d’utilisation.
Le modèle Ministral 8B a été entraîné à classer le contenu dans neuf catégories différentes, notamment :
- Contenu sexuel
- Haine et discrimination
- Violence et menaces
- Contenu dangereux et criminel
- Autres catégories comme la santé et les informations personnelles identifiables (PII)
Cette approche permet aux développeurs de configurer la modération selon des standards de sécurité bien définis, en fonction de leur secteur et de leurs exigences spécifiques.
Une approche pragmatique pour une sécurité accrue
Dans un article de blog, Mistral a expliqué que l’enthousiasme pour les systèmes de modération basés sur l’IA a considérablement augmenté ces derniers mois. Cependant, ces technologies ne sont pas exemptes de biais et d’erreurs techniques, un problème reconnu dans le domaine de l’IA. Par exemple, les modèles classiques de détection de la toxicité peuvent souvent considérer le African American Vernacular English (AAVE) comme toxique, ou signaler à tort des publications sur les personnes handicapées comme étant négatives.
Malgré ces défis, Mistral affirme que son modèle est capable d’appliquer des garde-fous efficaces en utilisant des catégories pertinentes pour minimiser les risques. L’API a été conçue pour reconnaître et atténuer les contenus problématiques générés par l’IA, tels que les conseils non qualifiés ou les informations personnelles.
Une API économique grâce au traitement par lot
En plus de l’API de modération, Mistral a également annoncé une nouvelle fonctionnalité de traitement par lot pour ses modèles d’IA. Cette approche permet de traiter un grand volume de requêtes de manière asynchrone, réduisant ainsi les coûts de l’API de 25 %. Cela représente un avantage significatif pour les entreprises qui doivent gérer de nombreux textes à analyser.
Les grandes entreprises comme Anthropic, OpenAI, et Google offrent également des options similaires de traitement par lot, mais Mistral espère se démarquer grâce à une solution légère et personnalisable.
Mistral AI : voici la fortune que peuvent toucher les fondateurs français en cas de vente
Avec cette nouvelle API de modération, Mistral cherche à s’imposer comme un acteur clé dans le domaine de la modération de contenu basée sur l’IA. La startup continue de collaborer avec la communauté de recherche pour affiner ses modèles et offrir des outils de sécurité de plus en plus robustes. Les entreprises en quête de solutions de modération flexibles et efficaces devraient garder un œil sur cette avancée prometteuse de Mistral.