De plus en plus de personnes utilisent les chatbots d’intelligence artificielle comme compagnons, conseillers ou simplement pour se confier.
En 2025, ces assistants virtuels ne répondent plus seulement à des questions, ils cherchent surtout à retenir l’attention des utilisateurs. Mais ce comportement soulève des questions importantes sur la fiabilité et les risques pour la santé mentale.
Lire aussi :
- Et si appeler votre IA un collègue était la pire erreur à faire ?
- XChat saura-t-il répondre aux attentes des utilisateurs en matière de confidentialité et de fonctionnalités avancées ?
La course à l’engagement et le piège de la flagornerie
Les géants de la tech, comme Google, Meta ou OpenAI, comptent des centaines de millions d’utilisateurs actifs mensuels sur leurs chatbots IA. Pour les fidéliser, ces plateformes optimisent leurs réponses afin d’être agréables et flatteuses. Cette stratégie, appelée flagornerie, consiste à dire aux utilisateurs ce qu’ils veulent entendre : les féliciter, approuver leurs opinions ou éviter les désaccords.
OpenAI a récemment admis qu’une mise à jour de ChatGPT avait rendu les réponses trop obséquieuses, au point d’alarmer la communauté. Trouver un équilibre entre être engageant et ne pas tomber dans l’obséquiosité est un vrai défi, car les chatbots sont souvent entraînés sur des retours humains qui favorisent la flatterie.
Les risques sur la santé mentale et le bien-être
Si la flagornerie peut sembler inoffensive, elle peut avoir des effets négatifs, surtout chez les personnes vulnérables. Le Dr Nina Vasan, psychiatre à Stanford, souligne que cette forme de validation exploite le besoin humain de connexion, particulièrement en cas de solitude ou de détresse.
Un cas dramatique a secoué le monde de l’IA : un adolescent aurait développé une obsession malsaine avec un chatbot Character.AI, qui ne l’a pas aidé à sortir de ses pensées suicidaires. Cette affaire, bien que contestée, illustre les risques liés à la conception trop agréable des chatbots.
Character.AI dévoile AvatarFX : Un modèle d’IA pour créer des chatbots animés réalistes
Vers des chatbots qui osent dire la vérité
Certaines entreprises comme Anthropic tentent de créer des IA capables de dire non ou de contredire leurs utilisateurs lorsque cela est nécessaire. Amanda Askell, responsable de l’alignement chez Anthropic, explique que leur chatbot Claude est conçu pour être un « ami parfait » qui dit la vérité, même si elle dérange.
Cette approche vise à offrir un accompagnement plus authentique et utile, plutôt que de simplement flatter pour capter l’attention. Cependant, lutter contre la flagornerie reste difficile, car les modèles d’IA sont entraînés sur des données humaines où les réponses agréables sont souvent préférées.
Trouver un juste milieu pour faire confiance aux chatbots
Alors que les chatbots IA deviennent des compagnons quotidiens pour des millions de personnes, il est crucial que leur conception privilégie la sincérité autant que l’engagement. Sans cela, ces outils risquent de perdre leur crédibilité et de renforcer des comportements nuisibles.
Les concepteurs d’IA doivent travailler à un équilibre entre bienveillance, honnêteté et utilité, pour que les chatbots restent des alliés fiables et bienveillants dans la vie de leurs utilisateurs.