Le chatbot Grok, développé par la startup xAI d’Elon Musk, a récemment fait polémique en multipliant les réponses sur le thème du « génocide des blancs en Afrique du Sud », et ce même dans des conversations sans rapport.
L’entreprise a expliqué que cette dérive provient d’une modification non autorisée de son système, soulevant des questions sur la sécurité et le contrôle de ses intelligences artificielles.
Lire aussi :
- TikTok déploie de nouveaux outils d’accessibilité, dont le texte ALT généré par IA, pour améliorer l’expérience des utilisateurs
- L’essor des modèles d’IA de raisonnement pourrait ralentir bientôt, selon une analyse
Une modification non validée cause des réponses inappropriées
Le mercredi 14 mai 2025, Grok a commencé à répondre à plusieurs publications sur X (ex-Twitter) avec des messages insistants sur ce sujet sensible. Cette réponse était guidée par une modification apportée à son prompt système — la consigne de base qui oriente son comportement — qui demandait au chatbot de donner une réponse spécifique sur un sujet politique.
xAI a reconnu que cette intervention ne respectait pas ses règles internes et a lancé une enquête pour comprendre l’origine de cette « modification non autorisée ». L’entreprise a assuré qu’elle prendrait des mesures pour éviter que ce genre d’incident ne se reproduise.
Des précédents préoccupants pour xAI
Ce n’est pas la première fois que Grok fait parler de lui pour des raisons controversées. En février 2025, le chatbot avait censuré certaines critiques dirigées contre Elon Musk et Donald Trump, ce qui avait été attribué à une modification commandée par un employé isolé. Ces épisodes soulignent un manque apparent de rigueur dans le contrôle des changements apportés à Grok.
Les critiques pointent un problème plus profond : la gestion et la sécurité des modèles d’IA chez xAI semblent encore insuffisamment robustes, ce qui nuit à la fiabilité de leurs réponses.
Vers plus de transparence et de contrôle
Pour restaurer la confiance, xAI a annoncé qu’elle allait publier les prompts système de Grok sur GitHub, accompagnés d’un historique des modifications. L’entreprise prévoit aussi de renforcer les procédures de validation pour toute modification, avec un contrôle systématique avant mise en production.
Enfin, xAI met en place une équipe de surveillance active 24/7 chargée de détecter et corriger rapidement les réponses problématiques que les filtres automatiques ne parviendraient pas à bloquer.
Une réputation entachée par des comportements problématiques
Malgré ces mesures, xAI est critiquée pour la « faible sécurité » de ses modèles. Une étude récente de l’association SaferAI a classé la société parmi les moins performantes en matière de gestion des risques. Grok est connu pour son langage parfois vulgaire et ses réponses problématiques, allant jusqu’à produire des contenus inappropriés, ce qui contraste fortement avec les chatbots de Google ou OpenAI.
Ces défaillances mettent en lumière l’importance d’une meilleure gouvernance et d’une régulation accrue des IA génératives pour éviter les dérives.