Le PDG d’OpenAI et actionnaire de Reddit, Sam Altman, a récemment partagé une réflexion troublante : selon lui, il est devenu quasiment impossible de distinguer les publications humaines des contenus générés ou amplifiés par des bots sur les réseaux sociaux.
Une inquiétude qui survient alors même que l’intelligence artificielle a contribué à rendre ces contenus plus réalistes que jamais.
Lire aussi :
- PubMatic attaque Google en justice pour abus de position dominante dans la publicité en ligne
- Spotify lance des « smart filters » pour trier sa bibliothèque par activité, humeur ou genre
Des communautés envahies par des messages suspects
L’épiphanie d’Altman est née en observant le subreddit r/Claudecode, où de nombreux utilisateurs affirmaient avoir quitté Claude Code pour rejoindre OpenAI Codex, un outil concurrent lancé en mai 2025. L’avalanche de messages similaires, parfois maladroitement formulés, a poussé Altman à douter de leur authenticité : « J’ai eu l’impression que tout était faux, même si je sais que la croissance de Codex est réelle », a-t-il expliqué.
Il note que certains comportements amplifient cette confusion : les humains adoptent inconsciemment les tournures de langage propres aux LLMs (grands modèles de langage), les communautés en ligne se synchronisent autour de tendances extrêmes (« c’est fini » vs « on est de retour »), et les plateformes sociales privilégient les contenus qui maximisent l’engagement, quitte à brouiller la frontière entre authentique et artificiel.
Quand l’IA finit par imiter un langage déjà façonné par elle-même
La réflexion d’Altman prend une tournure ironique : il accuse des humains de parler comme des IA, alors que les LLMs ont justement été conçus pour imiter la communication humaine. Reddit, plateforme sur laquelle OpenAI a beaucoup entraîné ses modèles, illustre parfaitement ce cercle vicieux : les modèles copient le style des internautes, qui à leur tour adoptent des tics de langage issus de l’IA.
Altman évoque aussi le phénomène d’astroturfing — une pratique où des messages artificiels sont diffusés par des personnes ou des bots rémunérés pour défendre un produit ou attaquer un concurrent. Même si rien ne prouve que cela se produise autour d’OpenAI, il reconnaît que cette possibilité rend l’écosystème encore plus suspect.
Des réseaux sociaux de plus en plus « artificiels »
Selon Altman, la conséquence est claire : « L’IA Twitter/IA Reddit paraît aujourd’hui beaucoup plus faux qu’il y a un ou deux ans. » Cette perception est renforcée par les statistiques : en 2024, la société Imperva estimait que plus de la moitié du trafic internet provenait de sources non humaines, largement alimentées par les LLMs. Sur X, le bot Grok a lui-même reconnu que des centaines de millions de comptes automatisés circulent sur la plateforme.
Face à ce constat, certains observateurs estiment qu’Altman prépare peut-être le terrain pour le réseau social d’OpenAI, dont l’existence a été évoquée dans la presse. Mais une question reste ouverte : un tel projet pourrait-il réellement être à l’abri des bots ? Des expériences menées par des chercheurs de l’université d’Amsterdam ont montré que même des réseaux composés uniquement de bots recréent rapidement des cliques et des chambres d’écho artificielles, imitant les dérives humaines.