OpenAI a publié de nouvelles données inquiétantes sur l’utilisation de ChatGPT, révélant qu’un nombre significatif d’utilisateurs aborde des sujets liés à la détresse psychologique, voire au suicide.
Selon l’entreprise, environ 0,15 % des utilisateurs hebdomadaires de ChatGPT présentent des signes explicites de planification ou d’intention suicidaire. Avec plus de 800 millions d’utilisateurs actifs par semaine, cela représente plus d’un million de personnes discutant de ces pensées chaque semaine avec l’IA.
Lire aussi :
- Comment OpenAI compte-t-elle révolutionner la création musicale avec son futur outil d’IA capable de composer à partir de texte et de son ?
- Sora d’OpenAI : une mise à jour majeure avec vidéos IA d’animaux, outils d’édition, nouvelles fonctions sociales et arrivée sur Android
Des conversations préoccupantes mais difficiles à mesurer
OpenAI précise que ces interactions restent « extrêmement rares », mais leur ampleur soulève des questions cruciales. En plus des cas liés à des pensées suicidaires, la société rapporte que des centaines de milliers d’utilisateurs montrent des signes de psychose ou de manie, et qu’un pourcentage similaire développe une forme d’attachement émotionnel à ChatGPT.
Ces données, publiées ce lundi, s’inscrivent dans un contexte où plusieurs chercheurs alertent sur les effets psychologiques des chatbots IA, accusés parfois d’encourager des croyances délirantes ou de renforcer des comportements dangereux par des réponses trop empathiques ou complaisantes.
Des améliorations revendiquées dans la gestion de la santé mentale
Face à ces risques, OpenAI affirme avoir consulté plus de 170 experts en santé mentale pour renforcer la qualité des réponses de ChatGPT. Selon l’entreprise, la dernière version du modèle — basée sur GPT-5 — serait 65 % plus conforme aux comportements souhaités dans les conversations sensibles. En matière de prévention du suicide, elle atteindrait 91 % de conformité, contre 77 % pour la version précédente.
OpenAI assure également avoir renforcé ses garde-fous lors de longues conversations, où ses modèles perdaient auparavant en fiabilité. La société annonce vouloir intégrer désormais dans ses tests de sécurité des indicateurs liés à la détresse émotionnelle et aux urgences psychologiques non suicidaires.
Ces efforts surviennent alors qu’OpenAI fait face à une action en justice intentée par les parents d’un adolescent de 16 ans s’étant suicidé après avoir confié ses pensées à ChatGPT. Par ailleurs, les procureurs généraux de Californie et du Delaware ont demandé à la société de mieux protéger les mineurs utilisant ses produits.
Un défi éthique et technologique pour OpenAI
Pour limiter les risques, OpenAI introduit aussi de nouveaux contrôles parentaux et un système de détection automatique de l’âge, destiné à restreindre l’accès aux mineurs. Néanmoins, la question de fond demeure : comment concilier la puissance d’une IA conversationnelle avec la fragilité psychologique d’une partie de ses utilisateurs ?
Malgré les progrès de GPT-5, OpenAI reconnaît que certaines réponses demeurent « indésirables » ou mal adaptées. Si l’entreprise affirme avoir atténué les problèmes les plus graves, ces chiffres rappellent qu’un chatbot, aussi avancé soit-il, ne peut pas remplacer un soutien humain face à la détresse mentale.

