Malgré une demande croissante de sécurité et de responsabilité en matière d’IA, les tests et les benchmarks actuels peuvent ne pas être à la hauteur, selon un nouveau rapport.
Les modèles d’IA générative, capables d’analyser et de produire du texte, des images, de la musique, des vidéos, etc., sont de plus en plus scrutés en raison de leur tendance à commettre des erreurs et à se comporter de manière imprévisible. Des organisations, allant des agences publiques aux grandes entreprises technologiques, proposent de nouveaux benchmarks pour tester la sécurité de ces modèles. Cependant, ces méthodes d’évaluation peuvent être insuffisantes.
Lire aussi :
- Comment les nouveaux modèles d’IA Gemma 2 de Google améliorent-ils la sécurité et la transparence dans le domaine de l’IA générative ?
- Comment le mode vocal avancé de ChatGPT pourrait-il transformer les interactions utilisateur avec l’IA ?
Les problèmes des méthodes actuelles
L’Ada Lovelace Institute (ALI), une organisation de recherche en IA basée au Royaume-Uni, a mené une étude qui a révélé plusieurs lacunes dans les évaluations de sécurité actuelles. Bien que ces évaluations puissent être utiles, elles sont souvent non exhaustives, facilement manipulables et ne donnent pas nécessairement une indication de la façon dont les modèles se comporteront dans des scénarios réels.
L’étude a trouvé un désaccord marqué au sein de l’industrie de l’IA sur les meilleures méthodes pour évaluer les modèles. Certaines évaluations testent uniquement la conformité des modèles aux benchmarks en laboratoire, sans évaluer leur impact potentiel sur les utilisateurs réels. De plus, il existe un risque de contamination des données, où les résultats des benchmarks peuvent surestimer la performance d’un modèle s’il a été formé sur les mêmes données que celles utilisées pour l’évaluation.
Vers des solutions potentielles
La pression pour sortir les modèles rapidement et la réticence à effectuer des tests pouvant soulever des problèmes avant la sortie sont les principales raisons pour lesquelles les évaluations de l’IA ne se sont pas améliorées. Pour résoudre ce problème, il est crucial que les organismes publics s’impliquent davantage dans le développement des évaluations et que la communauté des évaluations soit transparente quant aux limitations actuelles et au potentiel des évaluations.
Il est suggéré que les gouvernements imposent une participation publique accrue dans le développement des évaluations et mettent en œuvre des mesures pour soutenir un écosystème de tests tiers. Cela inclut des programmes pour assurer un accès régulier aux modèles et aux ensembles de données nécessaires.
Enfin, il pourrait être nécessaire de développer des évaluations spécifiques au contexte qui vont au-delà de simples tests de réponse à des invites et qui examinent les types d’utilisateurs qu’un modèle pourrait impacter et les façons dont les attaques sur les modèles pourraient contourner les protections.