Dans un monde où ChatGPT, Gemini et autres modèles génératifs produisent du texte à une vitesse fulgurante, il devient de plus en plus difficile de distinguer l’écriture humaine de celle générée par l’intelligence artificielle.
Pourtant, un acteur inattendu semble avoir trouvé une méthode efficace : Wikipédia. Depuis 2023, la célèbre encyclopédie collaborative s’est lancée dans un grand chantier baptisé Project AI Cleanup, visant à repérer, corriger ou supprimer les textes générés par IA envoyés par des contributeurs. De ce travail est né un document devenu une référence : le guide public “Signs of AI writing”.
Lire aussi :
- Databricks pourrait-il atteindre une valorisation de 130 milliards de dollars avec son prochain tour de financement ?
- Le super PAC soutenu par a16z réussira-t-il à influencer la régulation de l’IA aux États-Unis en attaquant Alex Bores ?
Wikipédia, laboratoire mondial contre l’écriture artificielle
Chaque jour, Wikipédia reçoit des millions de modifications provenant du monde entier. Ce volume colossal a fait émerger un problème : des articles entiers écrits par IA sans aucune vérification humaine. Afin de protéger la qualité encyclopédique du site, les éditeurs bénévoles ont analysé des milliers d’exemples. Résultat : un guide détaillé identifiant les caractéristiques typiques de l’écriture générée par IA.
À leur grande surprise, les outils automatiques détectant l’IA se sont révélés largement inefficaces. À la place, les éditeurs ont misé sur l’analyse stylistique : formulations suspectes, structure des phrases, tonalité promotionnelle ou répétitive.
Les signaux qui trahissent l’IA : ce que relève Wikipédia
Le guide identifie plusieurs patterns récurrents. Les modèles d’IA ont tendance à :
-
Exagérer l’importance d’un sujet, en utilisant des expressions vagues comme “un moment décisif”, “un élément clé de l’histoire”.
-
Multiplier les tournures pseudo-universitaires, par exemple “cela souligne l’importance de…” ou “ceci reflète la pertinence continue de…”.
-
Ajouter des détails inutiles pour donner du poids, comme mentionner chaque interview, invitation, ou apparition médiatique mineure d’une personne.
-
Employer un ton excessivement neutre, marketing ou aseptisé, où tout est “magnifique, moderne”, “exceptionnel” ou “breathtaking”, comme dans une publicité plutôt que dans une source encyclopédique.
Cette voix artificielle devient perceptible avec un peu d’habitude : phrases longues, adjectifs creux, absence d’opinion réelle, structure lisse… une écriture qui semble correcte, mais vidée de substance.
Vers une culture de détection du faux ?
L’analyse menée par Wikipédia a une implication majeure : elle démontre que l’écriture IA possède des patterns structurels persistants, liés à son entraînement sur des textes Internet uniformisés. Même si les modèles évoluent, leur tonalité générique, leur tendance à la sur-explication et leur incapacité à hiérarchiser l’information demeurent.
Pourquoi une fleur Wikipédia a-t-elle 90 millions de visites par jour?
La question devient alors : le public apprendra-t-il, comme pour les fake news, à identifier instinctivement ces signaux ? Si oui, cela pourrait transformer la perception des contenus en ligne et obliger les modèles à évoluer vers une écriture plus authentique, ou plus humaine.

