Le U.K. AI Safety Institute, nouvellement crรฉรฉ, a annoncรฉ le lancement d’Inspect, un ensemble d’outils conรงu pour renforcer la sรฉcuritรฉ de l’intelligence artificielle.
Cette initiative permettra aux industries, aux organisations de recherche et au milieu acadรฉmique de dรฉvelopper plus facilement des รฉvaluations d’IA. Inspect est disponible sous une licence open source, spรฉcifiquement sous licence MIT, et vise ร รฉvaluer certaines capacitรฉs des modรจles d’IA, y compris la connaissance de base des modรจles et leur capacitรฉ de raisonnement, pour gรฉnรฉrer un score basรฉ sur les rรฉsultats.
Lire aussi :
- Bing Chat de Microsoft devient Copilot pour concurrencer ChatGPT
- Accรจs Gratuit ร ChatGPT-4 : Microsoft Ouvre les Portes de l’IA Avancรฉe
Une plateforme de test de sรฉcuritรฉ de l’IA accessible et extensible
Dans un communiquรฉ de presse publiรฉ vendredi, l’Institut de sรฉcuritรฉ de l’IA a affirmรฉ que Inspect est ยซ la premiรจre fois qu’une plateforme de test de sรฉcuritรฉ de l’IA dirigรฉe par un organisme soutenu par l’รtat est mise ร disposition pour une utilisation plus large ยป. Ian Hogarth, prรฉsident de l’Institut, a dรฉclarรฉ : ยซ Une collaboration rรฉussie sur les tests de sรฉcuritรฉ de l’IA nรฉcessite une approche partagรฉe et accessible aux รฉvaluations, et nous espรฉrons qu’Inspect sera une pierre angulaire ยป. L’objectif est que la communautรฉ mondiale de l’IA utilise Inspect non seulement pour effectuer ses propres tests de sรฉcuritรฉ des modรจles, mais aussi pour aider ร adapter et dรฉvelopper la plateforme open source afin de produire des รฉvaluations de haute qualitรฉ de maniรจre gรฉnรฉralisรฉe.
Dรฉfis et composants clรฉs de Inspect
Les benchmarks d’IA sont complexes, notamment parce que les modรจles d’IA les plus sophistiquรฉs d’aujourd’hui sont des boรฎtes noires dont l’infrastructure, les donnรฉes d’entraรฎnement et d’autres dรฉtails clรฉs sont souvent gardรฉs secrets par les entreprises qui les crรฉent. Inspect relรจve ce dรฉfi en รฉtant extensible et adaptable ร de nouvelles techniques de test. L’outil est composรฉ de trois composants de base : les ensembles de donnรฉes, les solveurs et les รฉvaluateurs. Les ensembles de donnรฉes fournissent des รฉchantillons pour les tests d’รฉvaluation. Les solveurs effectuent les tests et les รฉvaluateurs analysent le travail des solveurs et agrรจgent les scores des tests en mรฉtriques.
Perspectives et collaborations futures
La sortie d’Inspect suit le lancement par une agence gouvernementale amรฉricaine, le National Institute of Standards and Technology (NIST), de NIST GenAI, un programme d’รฉvaluation de diverses technologies d’IA gรฉnรฉrative, y compris les IA gรฉnรฉratrices de texte et d’image. NIST GenAI prรฉvoit de publier des benchmarks, de contribuer ร la crรฉation de systรจmes de dรฉtection d’authenticitรฉ du contenu et d’encourager le dรฉveloppement de logiciels pour repรฉrer les informations fausses ou trompeuses gรฉnรฉrรฉes par l’IA.
En avril, les รtats-Unis et le Royaume-Uni ont annoncรฉ un partenariat pour dรฉvelopper conjointement des tests de modรจles d’IA avancรฉs, suite aux engagements annoncรฉs lors du sommet sur la sรฉcuritรฉ de l’IA au Royaume-Uni ร Bletchley Park en novembre dernier. Dans le cadre de cette collaboration, les รtats-Unis prรฉvoient de lancer leur propre institut de sรฉcuritรฉ de l’IA, qui sera largement chargรฉ d’รฉvaluer les risques liรฉs ร l’IA et ร l’IA gรฉnรฉrative.