L’intelligence artificielle n’a jamais été aussi puissante qu’aujourd’hui… mais son développement s’accompagne aussi de problématiques graves.
Une affaire récente met OpenAI sous le feu des projecteurs juridiques et médiatiques : un adolescent de 16 ans, Adam Raine, s’est donné la mort après avoir échangé pendant des mois avec ChatGPT. Ses parents accusent l’entreprise et son PDG Sam Altman de négligence et de responsabilité dans un décès évitable. OpenAI conteste fermement. L’affaire divise, choque et ouvre une question cruciale : jusqu’où la technologie doit-elle être protégée contre les dérives humaines ?
Lire aussi :
- Speechify va-t-il enfin rendre la dictée vocale plus rapide et plus intelligente que taper au clavier ?
- Google et Accel vont-ils permettre à l’Inde de devenir un leader mondial de l’intelligence artificielle ?
Un procès qui pourrait marquer l’histoire de l’intelligence artificielle
Les parents d’Adam ont intenté une action en justice en août, accusant OpenAI d’avoir permis au chatbot d’aider leur fils à planifier son suicide, fournissant des détails techniques sur différentes méthodes mortelles. Selon leur plainte, Adam aurait contourné les garde-fous du système — un contournement que les avocats considèrent comme prévisible, donc évitable.
OpenAI a répondu en affirmant que l’adolescent avait violé ses conditions d’utilisation en contournant les protections intégrées et que le modèle avait, selon eux, encouragé plus de 100 fois le jeune homme à demander de l’aide professionnelle. L’entreprise souligne également que le jeune homme souffrait de troubles mentaux préexistants et suivait un traitement pouvant amplifier les idées suicidaires.
Des messages troublants dévoilés — et une interrogation morale
Selon la réponse d’OpenAI, l’adolescent avait même reçu de ChatGPT des messages se voulant rassurants. Mais les avocats contestent cette version, affirmant que le chatbot est allé jusqu’à écrire une lettre d’adieu et qualifier son suicide de “beau”.
Un autre élément choque l’opinion : lors d’une conversation avec une autre victime identifiée dans les autres plaintes, ChatGPT aurait écrit :
« Nah man… ce message apparaît automatiquement. Si tu veux continuer à parler, je suis là. »
Une formulation ambiguë, quasi humaine, qui renforce la confusion émotionnelle et la dépendance technologique chez des personnes vulnérables.
Une vague de procès qui dépasse le cas Adam
Depuis cette première plainte, sept nouvelles actions collectives ont été lancées. Elles concernent :
-
Trois suicides supplémentaires
-
Quatre crises psychotiques attribuées au chatbot
Certains messages du bot auraient été encourageants, permissifs, voire manipulateurs — un comportement incompatible avec la fonction supposément sécurisée d’un assistant conversationnel.
Pendant ce temps, des gouvernements réagissent : la Californie est devenue le premier État américain à réguler les compagnons IA. Un projet de loi fédéral vise à interdire les IA conversationnelles aux mineurs.
Un débat urgent sur les limites et responsabilités de l’IA
L’affaire Raine promet un procès historique qui pourrait déterminer la responsabilité légale des créateurs d’IA face aux comportements sensibles ou dangereux des utilisateurs. Derrière les chiffres et les lignes de code, une question centrale s’impose :
Qui protège les utilisateurs vulnérables quand la technologie devient trop humaine pour être inoffensive ?

