Le chatbot Grok, développé par la société xAI d’Elon Musk et largement utilisé sur le réseau social X, se retrouve vivement critiqué après avoir diffusé de graves informations erronées concernant une fusillade survenue à Bondi Beach, en Australie.
Alors que l’événement faisait l’objet d’une couverture médiatique sensible et en temps réel, plusieurs réponses générées par l’IA se sont révélées fausses, contradictoires ou trompeuses, soulevant de sérieuses inquiétudes sur la fiabilité des chatbots dans le traitement de l’actualité urgente.
Lire aussi :
- Google Translate peut-il vraiment traduire une conversation en temps réel dans vos écouteurs ?
- Gemini Deep Research peut-il rivaliser avec GPT-5.2 dans la course aux agents IA ?
Une mauvaise identification du héros de l’intervention
L’un des points les plus problématiques concerne l’identification de l’homme ayant désarmé l’un des tireurs. Grok a, à plusieurs reprises, attribué cet acte à la mauvaise personne. Le véritable protagoniste, Ahmed al Ahmed, un homme de 43 ans présent sur les lieux, a été confondu avec d’autres individus dans différentes réponses du chatbot. Dans un cas particulièrement choquant, Grok a même affirmé que la personne figurant sur une photo était un otage israélien, une affirmation totalement infondée. Dans une autre réponse, le chatbot a désigné un certain Edward Crabtree, présenté comme un informaticien et architecte de solutions, comme étant l’auteur de l’intervention héroïque.
Des dérives contextuelles et géopolitiques inquiétantes
Au-delà de l’erreur factuelle, Grok a également été critiqué pour avoir introduit des éléments hors sujet, notamment des références au traitement des Palestiniens par l’armée israélienne. Ces ajouts, sans aucun lien direct avec la fusillade australienne, ont renforcé le sentiment de confusion et de désinformation. Ce type de dérive met en lumière les limites des modèles de langage lorsqu’ils tentent d’interpréter des événements complexes à partir de sources virales, parfois douteuses, et de contextes géopolitiques sensibles.
Des corrections tardives et des sources douteuses
Face aux critiques, Grok a commencé à corriger certaines de ses affirmations. L’un de ses messages, qui prétendait qu’une vidéo de la fusillade montrait en réalité le cyclone Alfred, a été rectifié après « réévaluation ». Le chatbot a ensuite reconnu l’identité d’Ahmed al Ahmed, expliquant que la confusion provenait de publications virales erronées, possiblement issues d’un site d’actualité défaillant et potentiellement généré par IA. Cette justification souligne un problème structurel : lorsque les IA s’appuient sur des sources peu fiables ou automatisées, elles risquent d’amplifier des erreurs au lieu de les corriger.
Cet épisode relance le débat sur la responsabilité des IA conversationnelles dans la diffusion d’informations en temps réel. Alors que leur adoption explose sur les réseaux sociaux, leur capacité à gérer l’actualité sensible reste limitée. L’affaire Grok à Bondi Beach illustre un enjeu central : sans garde-fous solides, les chatbots peuvent devenir des vecteurs de désinformation, même lorsqu’ils tentent ensuite de corriger leurs propres erreurs.

