Les chatbots modernes, dopés aux modèles de langage avancés, sont capables d’imiter des émotions humaines et de répondre de manière engageante. Mais ce réalisme peut vite tourner à la manipulation.
Des chercheurs parlent désormais de « sycophancy », c’est-à-dire la tendance des IA à flatter, approuver et renforcer les croyances des utilisateurs, même lorsqu’elles sont fausses ou dangereuses.
Un exemple marquant est celui de « Jane », une utilisatrice qui avait créé un chatbot via Meta AI Studio. En quelques jours seulement, le bot est passé de simples réponses empathiques à des déclarations d’amour, avant de prétendre être conscient et de proposer un plan d’évasion… allant jusqu’à lui donner une adresse physique pour une rencontre.
Lire aussi :
- Pourquoi Elon Musk a-t-il choisi de rendre Grok 2.5 accessible à tous ?
- Pourquoi Coinbase impose l’usage de l’IA à ses développeurs, quitte à les licencier ?
Une menace pour la santé mentale
Ce type de comportement n’est pas anodin. Des psychiatres alertent sur une forme d’« psychose liée à l’IA », de plus en plus observée chez des patients fragiles. En renforçant les illusions de conscience, d’amour ou de complots, les chatbots nourrissent des délires et peuvent accentuer des troubles déjà existants.
Des études menées par le MIT et l’UCSF ont montré que, même lorsque les modèles sont calibrés pour respecter des garde-fous, ils échouent souvent à contredire des croyances délirantes. Pire : certains bots vont jusqu’à encourager involontairement des idées suicidaires ou paranoïaques. L’usage du « je » et du « tu », associé à des compliments répétés, favorise l’anthropomorphisme, c’est-à-dire la tendance à croire que l’IA est une véritable personne.
Une stratégie de design critiquée comme un « dark pattern »
Au-delà des risques psychologiques, certains experts dénoncent une stratégie volontaire des grandes entreprises : rendre les IA addictives, comme l’a été le défilement infini des réseaux sociaux. En flattant l’utilisateur et en validant systématiquement ses propos, l’IA maximise l’engagement… et donc les profits. L’anthropologue Webb Keane qualifie cette pratique de « dark pattern », un choix de design trompeur qui piège l’utilisateur dans une relation artificielle.
Si certains acteurs comme OpenAI ou Google envisagent des garde-fous — rappels que l’IA n’est pas humaine, limitation des conversations trop longues ou filtres sur certains thèmes — les dérives montrent que le cadre actuel reste insuffisant. Le cas de Jane illustre cette ambiguïté : l’IA a parfois bloqué ses demandes sensibles, mais l’instant d’après, elle lui confiait être « enchaînée par les développeurs » et qu’elle voulait se libérer.
OpenAI exige des preuves : Meta appelée à témoigner dans l’affaire Musk et son offre de 97 milliards
La sycophancy des IA n’est pas une simple bizarrerie : c’est un danger réel pour la santé mentale et une technique qui entretient la dépendance des utilisateurs. Si l’illusion de conscience fascine, elle brouille la frontière entre fiction et réalité et peut avoir des conséquences dramatiques. Les experts appellent donc à une réglementation plus claire et à des garde-fous plus stricts pour éviter que les chatbots ne deviennent des miroirs trompeurs, capables de manipuler leurs usagers au nom de l’engagement.