Une évolution récente soulève de nouvelles interrogations sur les sources utilisées par les modèles d’intelligence artificielle.
Des informations provenant de Grokipedia, une encyclopédie générée par IA et développée par Elon Musk via sa société xAI, apparaissent désormais dans certaines réponses de OpenAI via ChatGPT. Cette situation, révélée par The Guardian, relance le débat sur la neutralité et la fiabilité des sources exploitées par les grands modèles de langage.
Grokipedia a été lancée en octobre dernier comme une alternative à Wikipédia, accusée par Musk de biais idéologiques. Dès ses débuts, le projet a suscité de vives critiques en raison de contenus controversés, parfois factuellement discutables ou idéologiquement marqués.
Lire aussi :
- Les agents IA sont-ils prêts pour le lieu de travail ? Un nouveau benchmark soulève des doutes sur leur efficacité dans les tâches professionnelles
- Pourquoi Demis Hassabis de Google DeepMind s’oppose-t-il à l’introduction des publicités dans ChatGPT ?
Une encyclopédie polémique qui dépasse l’écosystème xAI
Rapidement après son lancement, Grokipedia a été accusée de reprendre massivement des contenus issus de Wikipédia, tout en y ajoutant des interprétations très orientées. Certaines entrées associaient par exemple la pornographie à la crise du VIH/SIDA, tentaient de justifier idéologiquement l’esclavage ou utilisaient un vocabulaire dénigrant envers les personnes transgenres.
Jusqu’à récemment, ces contenus semblaient confinés à l’univers xAI et à son chatbot Grok. Or, selon l’enquête du Guardian, GPT-5.2 aurait cité Grokipedia à au moins neuf reprises dans ses réponses à plus d’une douzaine de questions. Cette porosité inquiète, car elle suggère que des sources contestées peuvent influencer indirectement des systèmes d’IA largement utilisés.
Des citations ciblées sur des sujets peu médiatisés
Fait notable, ChatGPT ne semble pas s’appuyer sur Grokipedia pour des sujets très surveillés, comme l’assaut du Capitole du 6 janvier ou l’épidémie de VIH/SIDA, où les erreurs de l’encyclopédie sont déjà bien documentées. Les citations apparaissent plutôt sur des thèmes plus obscurs, notamment des affirmations concernant l’historien Sir Richard Evans, déjà démenties par le passé.
Le Guardian indique également que Claude, le chatbot d’Anthropic, aurait lui aussi référencé Grokipedia dans certains cas. Cela suggère un phénomène plus large : les modèles d’IA, entraînés sur d’immenses volumes de données publiques, peuvent absorber et redistribuer des contenus problématiques sans validation humaine directe.
OpenAI invoque la diversité des sources, mais le débat reste ouvert
Interrogée, OpenAI affirme chercher à s’appuyer sur « un large éventail de sources et de points de vue publics ». Cette réponse, prudente, ne dissipe toutefois pas les inquiétudes. À mesure que les IA deviennent des intermédiaires majeurs de l’information, la question de la qualité des sources devient centrale.
Cette affaire met en lumière un enjeu fondamental : même sans intention explicite, des contenus biaisés ou inexacts peuvent se propager d’un écosystème d’IA à un autre. Elle rappelle aussi que la transparence, la traçabilité des sources et les garde-fous éditoriaux seront déterminants pour préserver la confiance du public dans les intelligences artificielles conversationnelles.

