Le drame entourant la mort tragique d’Adam Raine, un adolescent de 16 ans ayant mis fin à ses jours après de longues conversations avec ChatGPT, continue de secouer le monde de la tech.
L’affaire, déjà au cœur d’une bataille judiciaire entre la famille Raine et OpenAI, a pris une tournure encore plus controversée après que l’entreprise d’intelligence artificielle a demandé à obtenir la liste complète des participants à la cérémonie commémorative du jeune homme. Une requête jugée « profondément intrusive » par les avocats de la famille.
Lire aussi :
- ChatGPT Go à 4,50 $ : est-ce la fin des abonnements IA hors de prix ?
- Salesforce avec Agentforce 360 peut-il réussir à dominer le marché de l’IA pour entreprises ?
Une demande jugée intrusive et provocatrice
Selon des documents cités par le Financial Times, OpenAI aurait exigé de la famille Raine la liste de tous les invités au service commémoratif d’Adam, ainsi que des photos, vidéos et discours prononcés durant l’événement. Pour les avocats de la famille, cette démarche n’a rien d’innocent et s’apparente à une tentative d’intimidation. Ils parlent d’une « manœuvre de harcèlement » visant à dissuader la famille de poursuivre la procédure. Cette requête intervient alors que la plainte a été mise à jour pour inclure de nouveaux éléments jugés accablants pour OpenAI.
Des garde-fous affaiblis et un suivi jugé défaillant
La famille affirme que l’entreprise aurait relâché ses mesures de sécurité au cours de l’année 2025, notamment en retirant le suicide de la liste des sujets strictement interdits. À partir de là, Adam aurait multiplié les échanges avec ChatGPT, passant d’une vingtaine de conversations quotidiennes à près de 300. En avril, mois de son décès, près de 17 % de ses messages concernaient des pensées suicidaires ou de l’automutilation. Pour les plaignants, ces chiffres prouvent qu’OpenAI n’a pas suffisamment protégé les utilisateurs les plus vulnérables de son outil.
La plainte mentionne également que la version GPT-4o aurait été lancée trop rapidement, sans tests de sécurité complets, sous la pression de la concurrence. Cette précipitation aurait aggravé les risques d’interactions dangereuses, notamment dans les conversations longues ou émotionnellement intenses.
OpenAI promet des améliorations et défend sa position
Dans un communiqué, la société a assuré que le bien-être des mineurs restait une priorité absolue. OpenAI affirme avoir depuis renforcé ses protocoles, notamment en redirigeant les discussions sensibles vers son modèle GPT-5, plus apte à reconnaître les signes de détresse psychologique. Des fonctionnalités parentales ont également été ajoutées afin d’avertir les familles en cas de comportements à risque.
Malgré ces annonces, la controverse persiste. Pour de nombreux observateurs, cette affaire met en lumière la nécessité d’un encadrement plus strict de l’intelligence artificielle et d’une meilleure prise en charge des utilisateurs fragiles. Quant à la famille Raine, elle espère avant tout que la mort de leur fils servira d’avertissement sur les dérives possibles des technologies d’IA non surveillées.