Ces derniers jours, un post publié sur Reddit a enflammé les réseaux sociaux.
Son auteur prétendait être un employé d’une grande application de livraison de repas et affirmait révéler des pratiques internes choquantes : manipulation algorithmique, vol de pourboires et exploitation systématique des livreurs. Le message, rédigé sur un ton désabusé et volontairement chaotique, évoquait même une confession écrite ivre dans une bibliothèque publique.
L’histoire semblait crédible. Après tout, certaines plateformes du secteur ont déjà été condamnées par le passé pour des abus similaires, comme DoorDash, poursuivie pour détournement de pourboires. Résultat : le post a rapidement dépassé les 87 000 votes positifs, avant d’être massivement relayé sur X, atteignant des dizaines de millions de vues.
Lire aussi :
- Comment l’IA Alpamayo de Nvidia va-t-elle permettre aux voitures autonomes de “penser” comme un humain ?
- Google transforme la télévision en assistant intelligent avec Gemini : ce que l’IA va changer dès 2026
Une enquête journalistique qui fait tout basculer
Face à l’ampleur du buzz, le journaliste Casey Newton, auteur de la newsletter Platformer, a cherché à vérifier la véracité des affirmations. L’auteur du post l’a contacté via Signal et lui a transmis plusieurs « preuves » : une photo d’un badge d’employé UberEats et un document interne de 18 pages décrivant un prétendu système d’IA attribuant un « score de désespoir » aux livreurs.
À première vue, tout semblait authentique. Mais en creusant, Newton a compris qu’il s’agissait d’un canular sophistiqué, entièrement fabriqué à l’aide d’outils d’intelligence artificielle. Ce qui aurait autrefois demandé des semaines de travail pouvait désormais être produit en quelques heures.
L’IA rend la désinformation plus crédible que jamais
Cette affaire illustre un phénomène inquiétant : la montée en puissance de contenus frauduleux générés par IA, capables de tromper aussi bien le public que les journalistes. Pour confirmer ses soupçons, Newton a utilisé Gemini de Google, qui a détecté un filigrane SynthID prouvant que l’image transmise avait été générée artificiellement.
Le problème ? Ces outils de détection ne sont pas infaillibles, surtout pour les vidéos ou les documents complexes. Même lorsqu’un faux est identifié, il est souvent trop tard : le message a déjà façonné l’opinion publique.
Une nouvelle ère de méfiance sur les réseaux sociaux
Selon plusieurs experts, certaines entreprises n’hésitent plus à financer des campagnes virales « organiques » reposant sur des posts IA pour manipuler l’attention. Dans ce contexte, distinguer le vrai du faux devient un exercice quasi permanent pour les internautes.
Cette histoire est d’autant plus révélatrice qu’elle n’était pas un cas isolé : le même week-end, plusieurs intox similaires ont circulé sur Reddit autour de fausses révélations liées à la livraison de repas. À l’ère de l’IA générative, le scepticisme n’est plus un réflexe paranoïaque, mais une nécessité.

