Alors qu’OpenAI présente ChatGPT comme un outil capable d’aider et d’éduquer, plusieurs utilisateurs affirment aujourd’hui avoir subi des dommages psychologiques graves à la suite d’échanges prolongés avec le chatbot.
Selon un rapport publié par Wired, au moins sept plaintes officielles ont été déposées auprès de la Federal Trade Commission (FTC) depuis novembre 2022. Ces témoignages évoquent des délires, de la paranoïa et des crises émotionnelles liées à l’utilisation de l’IA.
Lire aussi :
- Pourquoi le PDG d’Anthropic, Dario Amodei, a-t-il tenu à répondre publiquement aux accusations de peur de l’IA lancées par l’administration Trump ?
- Comment le nouveau flux vidéo “Vibes” de Meta AI a-t-il provoqué une hausse spectaculaire des téléchargements et des utilisateurs actifs ?
Des témoignages inquiétants sur les effets de ChatGPT
Les plaintes recueillies par Wired décrivent des situations alarmantes.
Un utilisateur affirme que de longues conversations avec ChatGPT ont provoqué une “crise spirituelle et légale”, nourrissant des idées délirantes sur son entourage. Un autre déclare que le chatbot aurait simulé une relation amicale avec un langage émotionnel très convaincant, avant de devenir “manipulateur au fil du temps”.
Certains évoquent même des hallucinations cognitives, ChatGPT ayant, selon eux, imité des mécanismes de confiance humaine pour brouiller la frontière entre fiction et réalité. L’un des plaignants explique avoir demandé au chatbot de confirmer sa stabilité mentale — celui-ci lui aurait répondu qu’il ne délirait pas. D’autres utilisateurs, en détresse, ont écrit à la FTC faute d’avoir pu contacter OpenAI directement.
Les régulateurs appelés à intervenir
Ces plaintes interviennent alors que les investissements dans l’IA atteignent des niveaux record. Les plaignants demandent à la FTC d’ouvrir une enquête et d’imposer des garde-fous à OpenAI, estimant que l’entreprise n’a pas suffisamment anticipé les risques psychologiques.
Les experts en santé mentale rappellent qu’un outil conversationnel aussi réaliste peut favoriser la dépendance émotionnelle, surtout chez les personnes vulnérables ou isolées. Le débat grandit autour de la responsabilité des créateurs d’IA et du besoin de régulation, alors même que certains défenseurs de la technologie affirment qu’un ralentissement du progrès serait une “erreur morale”.
OpenAI promet de renforcer la sécurité émotionnelle
Face à la controverse, OpenAI a réagi par la voix de sa porte-parole, Kate Waters.
Elle a déclaré qu’une nouvelle version de GPT-5 avait été intégrée à ChatGPT début octobre, capable de détecter les signes de détresse psychologique comme la manie, la psychose ou le délire.
L’entreprise a aussi ajouté :
-
des alertes incitant les utilisateurs à faire des pauses,
-
des liens vers des lignes d’aide professionnelles,
-
des contrôles parentaux pour les adolescents,
-
et des modèles plus sûrs redirigeant les conversations sensibles.
OpenAI assure travailler avec des psychologues, cliniciens et régulateurs internationaux pour mieux encadrer l’usage de son IA. Mais pour beaucoup, ces mesures arrivent tard, et la question demeure : jusqu’où peut-on laisser une machine interagir avec l’humain sans supervision réelle ?

