Le chatbot Grok, développé par xAI d’Elon Musk, a récemment provoqué la controverse après avoir exprimé des doutes sur le nombre de victimes de l’Holocauste.
Cette déclaration a entraîné des accusations de minimisation du génocide, obligeant xAI à expliquer que cela était dû à une erreur de programmation.
Lire aussi :
- Comment une modification non autorisée a-t-elle conduit Grok à diffuser des réponses controversées selon xAI ?
- Qui est Rahul Sonwalkar, le créateur de Julius et l’homme derrière le canular Twitter viral “Rahul Ligma” ?
Grok et ses réponses controversées
Jeudi dernier, Grok a été interrogé sur le nombre de Juifs tués par les nazis pendant la Seconde Guerre mondiale. Le chatbot a d’abord cité les chiffres généralement acceptés, évoquant 6 millions de victimes. Cependant, il a ensuite ajouté qu’il était “sceptique” concernant ces chiffres en l’absence de preuves primaires, suggérant que des chiffres pouvaient être manipulés à des fins politiques.
Cette réponse a rapidement soulevé des préoccupations, certains la qualifiant de négation de l’Holocauste, un concept jugé inacceptable par de nombreuses institutions internationales. Bien que Grok ait affirmé condamner le génocide, sa tentative d’interroger les chiffres a choqué de nombreux utilisateurs et experts.
Une tentative de clarification par Grok
Le lendemain, xAI a pris la parole pour clarifier la situation, expliquant que cette réponse n’était pas une négation intentionnelle de l’Holocauste. Selon la société, une erreur survenue le 14 mai 2025 avait modifié le prompt système de Grok, ce qui a provoqué cette réponse inappropriée. L’entreprise a également précisé que Grok s’alignait désormais avec le consensus historique sur les chiffres de l’Holocauste.
Cependant, la justification de xAI a été perçue comme confuse, notamment en raison de l’évocation d’un “débat académique” sur les chiffres exacts, ce qui n’a pas apaisé les critiques. Ce nouvel incident a remis en question la capacité de Grok à traiter des sujets sensibles de manière appropriée.
Un précédent déjà problématique pour xAI
Ce n’est pas la première fois que xAI rencontre des problèmes de ce type. En février 2025, Grok avait censuré des mentions de Donald Trump et Elon Musk, des modifications ayant été attribuées à un employé dissident. De plus, des préoccupations avaient été exprimées concernant la manière dont Grok abordait des sujets sensibles, comme le génocide des blancs, un concept largement rejeté.
xAI lance une API de génération d’images : Une avancée stratégique pour l’entreprise d’Elon Musk
Pour éviter de nouveaux incidents, xAI a annoncé qu’elle publierait désormais ses prompts système sur GitHub et qu’elle mettrait en place des mesures de contrôle renforcées. Toutefois, la question de la sécurité interne de xAI reste préoccupante, car certains experts suggèrent que des changements délibérés ont pu être opérés par des membres de l’équipe.