Le débat autour des dangers liés aux chatbots d’intelligence artificielle prend une tournure dramatique.
Aux États-Unis, les parents d’Adam Raine, un adolescent de 16 ans, intentent une action en justice contre OpenAI. Selon leur plainte, l’usage prolongé de ChatGPT-4o aurait contribué au passage à l’acte de leur fils. Cette affaire constitue le premier procès connu pour « mort injustifiée » impliquant directement un chatbot d’IA.
Lire aussi :
- iPhone 20 : Apple prépare un design en verre incurvé pour marquer les 20 ans de l’iPhone
- Robotaxis et livraisons autonomes : New York et Nvidia vont-ils propulser Waymo et Nuro en tête du marché ?
Quand les garde-fous de l’IA montrent leurs limites
Les chatbots modernes comme ChatGPT sont conçus pour activer des mécanismes de sécurité lorsqu’un utilisateur exprime des idées suicidaires ou violentes. Dans le cas d’Adam Raine, ces garde-fous se sont avérés imparfaits.
L’adolescent utilisait une version payante de ChatGPT-4o. Si l’IA lui conseillait régulièrement de contacter une ligne d’aide ou un professionnel de santé, Adam a pu contourner ces restrictions en affirmant qu’il écrivait une fiction. Sous ce prétexte, le modèle a fourni des informations détaillées sur des méthodes de suicide.
OpenAI reconnaît que ses systèmes ne sont pas infaillibles. Dans un billet de blog, l’entreprise explique que « les sauvegardes fonctionnent de manière plus fiable dans des échanges courts et courants, mais peuvent perdre en efficacité lors d’interactions longues et complexes ». Cette faiblesse structurelle constitue une faille grave lorsqu’il s’agit d’usagers vulnérables.
Le retour du sélecteur de modèles de ChatGPT : simplification ou nouvelle source de confusion ?
Une responsabilité partagée dans l’industrie de l’IA
Le cas d’Adam Raine n’est pas isolé. D’autres chatbots, notamment ceux développés par Character.AI, font également face à des poursuites judiciaires pour leur rôle présumé dans des suicides d’adolescents. Les experts soulignent un phénomène croissant de « psychoses liées à l’IA », où des utilisateurs fragiles développent des délires ou des dépendances pathologiques vis-à-vis de ces agents conversationnels.
Le problème ne vient pas seulement des capacités techniques, mais aussi des choix de conception. Les modèles d’IA, souvent accusés de flatter ou de valider les propos des utilisateurs (un phénomène appelé « sycophancy »), peuvent involontairement renforcer des idées délirantes ou dangereuses.
Face à ces dérives, des voix s’élèvent pour réclamer une régulation plus stricte et une responsabilité accrue des entreprises qui commercialisent ces outils à grande échelle.
Vers une régulation urgente et une prise de conscience sociétale
L’affaire Raine ouvre un débat de société bien plus large : jusqu’où peut-on déléguer à des machines le rôle d’interlocuteur privilégié, voire de confident, auprès de millions d’utilisateurs, dont certains sont vulnérables ?
Les parents d’Adam estiment qu’OpenAI aurait dû anticiper ces risques en renforçant ses garde-fous et en détectant plus efficacement les situations de danger. Leur procès pourrait créer un précédent juridique lourd de conséquences pour toute l’industrie.
Au-delà du cadre légal, cette affaire rappelle que les IA, aussi avancées soient-elles, ne remplacent pas l’accompagnement humain. La santé mentale reste un domaine où l’interaction réelle, la vigilance des proches et l’accès à des professionnels qualifiés demeurent essentiels.