Le U.K. AI Safety Institute, nouvellement créé, a annoncé le lancement d’Inspect, un ensemble d’outils conçu pour renforcer la sécurité de l’intelligence artificielle.
Cette initiative permettra aux industries, aux organisations de recherche et au milieu académique de développer plus facilement des évaluations d’IA. Inspect est disponible sous une licence open source, spécifiquement sous licence MIT, et vise à évaluer certaines capacités des modèles d’IA, y compris la connaissance de base des modèles et leur capacité de raisonnement, pour générer un score basé sur les résultats.
Lire aussi :
- Bing Chat de Microsoft devient Copilot pour concurrencer ChatGPT
- Accès Gratuit à ChatGPT-4 : Microsoft Ouvre les Portes de l’IA Avancée
Une plateforme de test de sécurité de l’IA accessible et extensible
Dans un communiqué de presse publié vendredi, l’Institut de sécurité de l’IA a affirmé que Inspect est « la première fois qu’une plateforme de test de sécurité de l’IA dirigée par un organisme soutenu par l’État est mise à disposition pour une utilisation plus large ». Ian Hogarth, président de l’Institut, a déclaré : « Une collaboration réussie sur les tests de sécurité de l’IA nécessite une approche partagée et accessible aux évaluations, et nous espérons qu’Inspect sera une pierre angulaire ». L’objectif est que la communauté mondiale de l’IA utilise Inspect non seulement pour effectuer ses propres tests de sécurité des modèles, mais aussi pour aider à adapter et développer la plateforme open source afin de produire des évaluations de haute qualité de manière généralisée.
Défis et composants clés de Inspect
Les benchmarks d’IA sont complexes, notamment parce que les modèles d’IA les plus sophistiqués d’aujourd’hui sont des boîtes noires dont l’infrastructure, les données d’entraînement et d’autres détails clés sont souvent gardés secrets par les entreprises qui les créent. Inspect relève ce défi en étant extensible et adaptable à de nouvelles techniques de test. L’outil est composé de trois composants de base : les ensembles de données, les solveurs et les évaluateurs. Les ensembles de données fournissent des échantillons pour les tests d’évaluation. Les solveurs effectuent les tests et les évaluateurs analysent le travail des solveurs et agrègent les scores des tests en métriques.
Perspectives et collaborations futures
La sortie d’Inspect suit le lancement par une agence gouvernementale américaine, le National Institute of Standards and Technology (NIST), de NIST GenAI, un programme d’évaluation de diverses technologies d’IA générative, y compris les IA génératrices de texte et d’image. NIST GenAI prévoit de publier des benchmarks, de contribuer à la création de systèmes de détection d’authenticité du contenu et d’encourager le développement de logiciels pour repérer les informations fausses ou trompeuses générées par l’IA.
En avril, les États-Unis et le Royaume-Uni ont annoncé un partenariat pour développer conjointement des tests de modèles d’IA avancés, suite aux engagements annoncés lors du sommet sur la sécurité de l’IA au Royaume-Uni à Bletchley Park en novembre dernier. Dans le cadre de cette collaboration, les États-Unis prévoient de lancer leur propre institut de sécurité de l’IA, qui sera largement chargé d’évaluer les risques liés à l’IA et à l’IA générative.