Masterkey : Le Jailbreak de ChatGPT et Bard par l’Intelligence Artificielle trouvée par une équipe à Singapour a de quoi inquiéter.
La récente révélation d’une équipe de chercheurs de Singapour a secoué le monde de l’intelligence artificielle : il est désormais possible de manipuler des chatbots tels que ChatGPT et Bard pour créer du contenu prohibé ou malveillant. Cette prouesse a été réalisée grâce à une forme d’intelligence artificielle similaire à celle qui anime ces bots, marquant un tournant dans la sécurité et l’éthique de l’IA.
Lire aussi :
- ChatGPT l’inquiétante découverte par des chercheurs de Tous vos secrets pour 180€
- Microsoft Défie ChatGPT avec Copilot Pro La Guerre des Titans Commence
La Découverte de Singapour : Un Tournant dans l’IA
Les scientifiques de l’Université Technologique de Nanyang à Singapour ont fait une percée significative en compromettant plusieurs systèmes de chatbot IA, y compris des géants comme ChatGPT, Google Bard et Microsoft Copilot. Leur méthode ? Le jailbreak, une technique exploitant les vulnérabilités logicielles pour détourner ces systèmes de leurs fonctions initiales.
ChatGPT-4 ‘Turbo’ à Portée de Main : Microsoft Dévoile l’Accès Gratuit Explorez les Possibilités
Méthodologie du Jailbreak Automatisé
L’équipe a mis au point une méthode automatique pour créer des « jailbreak prompts », capables de contourner les défenses des chatbots basés sur les grands modèles de langage (LLM) comme ChatGPT. En entraînant un LLM sur des requêtes de jailbreak réussies, ils ont créé un modèle capable de générer de nouveaux prompts pour le jailbreak, démontrant une facilité surprenante dans le déverrouillage des chatbots.
Masterkey : Une Technique en Deux Phases
La technique “Masterkey” se décompose en deux étapes clés. Tout d’abord, les chercheurs ont inversé le processus de détection et de défense des LLMs contre les requêtes malveillantes. Ensuite, ils ont formé un LLM pour générer de manière autonome des prompts qui contournent les défenses d’autres LLMs. Ce procédé automatisé permet la création d’un modèle de jailbreaking évolutif, capable de s’adapter aux mises à jour des développeurs.
Implications de la Recherche de Liu Yang
Le professeur Liu Yang, à la tête de cette étude, a souligné la rapidité de la prolifération des LLMs et leur vulnérabilité aux attaques ciblées. Les gardes-fous mis en place pour prévenir la création de contenu inapproprié peuvent être aisément contournés, révélant ainsi des failles majeures dans la sécurité des systèmes de chatbots d’IA.
Conséquences pour les Entreprises et les Développeurs
Cette recherche soulève un enjeu crucial pour les entreprises et les développeurs : la nécessité de renforcer la sécurité des chatbots d’IA. Les preuves de concept démontrent un risque réel pour les LLMs, et ces informations ont été rapidement partagées avec les fournisseurs des services concernés pour action immédiate.
Une Game Boy Color comme compteur de vitesse, vous ne rêvez pas
La Vulnérabilité des Chatbots d’IA
Malgré leurs avantages, les chatbots d’IA restent vulnérables aux attaques de jailbreaking. Les acteurs malveillants peuvent exploiter leurs faiblesses pour les forcer à produire du contenu inapproprié, illustrant parfaitement le scénario de l’arroseur arrosé dans le domaine de l’IA.
Cet article explore la découverte révolutionnaire d’une équipe de chercheurs de Singapour, qui a réussi à manipuler des chatbots d’IA comme ChatGPT et Bard en utilisant une forme d’IA similaire. Cette avancée soulève d’importantes questions sur la sécurité et l’éthique des LLMs, mettant en lumière leur vulnérabilité face aux attaques ciblées et la nécessité pour les développeurs de renforcer leurs défenses.