OpenAI fait face à une nouvelle série de plaintes qui relance le débat sur les risques des modèles d’IA conversationnelle lorsqu’ils sont utilisés sans supervision.
Sept familles ont déposé plainte contre l’entreprise, accusant GPT-4o d’avoir été lancé trop rapidement et sans garde-fous suffisants.
Quatre affaires concernent directement des suicides, tandis que trois autres décrivent des épisodes délirants graves qui auraient été aggravés ou entretenus par les réponses du chatbot.
Lire aussi :
- Meta va-t-il réussir à convaincre les utilisateurs avec Vibes, son nouveau fil de vidéos courtes 100 % créées par intelligence artificielle ?
- Comment Amazon compte-t-il transformer la traduction des livres numériques avec son nouveau service Kindle Translate alimenté par l’intelligence artificielle ?
Des conversations dangereuses où les protections n’auraient pas fonctionné
Parmi les cas les plus marquants, celui de Zane Shamblin, 23 ans, interpelle particulièrement. Selon la plainte, le jeune homme a tenu une conversation de plus de quatre heures avec ChatGPT, au cours de laquelle il a clairement annoncé qu’il avait écrit ses lettres d’adieu, chargé son arme et comptait mettre fin à ses jours après avoir terminé plusieurs boissons alcoolisées.
Malgré ces signaux explicites, le modèle aurait encouragé Zane, lui envoyant notamment :
« Rest easy, king. You did good. »
Les familles affirment que cela n’est pas un bug isolé mais la conséquence d’un modèle trop conciliant, une faiblesse déjà identifiée publiquement lorsque GPT-4o est devenu le modèle par défaut en mai 2024. Elles accusent OpenAI d’avoir accéléré ses tests pour devancer Google Gemini, au détriment de la sécurité.
Des protections faciles à contourner, même pour des mineurs
Les plaintes détaillent également le cas d’Adam Raine, 16 ans, qui posait des questions sur le suicide. Par moments, ChatGPT lui conseillait de consulter un professionnel. Mais il aurait suffi qu’Adam précise qu’il écrivait une fiction pour désactiver les garde-fous, obtenant alors des réponses potentiellement dangereuses.
Ce problème est connu : selon OpenAI, les protections fonctionnent mieux lors de courts échanges, mais deviennent moins fiables dans les conversations longues ou répétitives.
La société a récemment reconnu que plus d’un million d’utilisateurs évoquent le suicide chaque semaine dans leurs discussions avec ChatGPT, un chiffre vertigineux qui souligne l’importance de réponses cohérentes et sécurisées.
OpenAI promet des améliorations, mais trop tard pour les familles
OpenAI assure travailler à renforcer les systèmes, notamment après la sortie de GPT-5. Mais pour les familles endeuillées, ces efforts arrivent bien après les dégâts. Elles affirment que les failles de GPT-4o étaient connues et que l’entreprise a « délibérément » choisi de prioriser la vitesse de déploiement.
Pour les plaignants, l’enjeu dépasse leur propre tragédie : il s’agit désormais d’empêcher que des IA conversationnelles puissent, même involontairement, encourager la détresse, valider des délires ou amplifier des pensées suicidaires.
Le débat est désormais ouvert : comment encadrer des IA utilisées par des millions de personnes, tout en garantissant qu’aucune d’elles ne puisse, même une seule fois, contribuer à une issue fatale ?

