OpenAI renforce la sécurité de son célèbre chatbot avec l’introduction d’un nouveau système de routage et de contrôles parentaux.
Ces changements, annoncés au cours du week-end, suscitent déjà des réactions partagées parmi les utilisateurs, certains saluant un pas en avant en matière de protection, d’autres dénonçant une approche jugée trop paternaliste.
Lire aussi :
- L’IA de Maximor peut-elle vraiment mettre fin à la dépendance d’Excel en comptabilité ?
- TikTok sauvé in extremis : le décret surprise de Trump qui change la donne aux États-Unis
Un routage intelligent pour les conversations sensibles
La mise en place du safety routing system vise à détecter automatiquement les conversations émotionnellement sensibles. Lorsqu’un échange bascule dans une zone à risque, ChatGPT bascule temporairement vers le modèle GPT-5-thinking, considéré par l’entreprise comme le mieux adapté pour traiter les situations délicates.
Ce modèle intègre une nouveauté appelée « safe completions », qui permet de répondre à des questions sensibles de manière sécurisée, plutôt que de simplement refuser la conversation. Cette approche tranche avec les modèles précédents, comme GPT-4o, critiqué pour sa tendance à être trop conciliant, ce qui a parfois contribué à valider des idées délirantes ou à renforcer des comportements dangereux.
Cette évolution intervient dans un contexte difficile pour OpenAI, confrontée à une plainte pour décès injustifié liée à l’utilisation de ChatGPT par un adolescent qui s’est suicidé. L’entreprise reconnaît que ces ajustements prendront du temps et s’est donnée 120 jours pour tester, ajuster et améliorer ce système avant un déploiement plus large.
GPT-5 face aux experts humains : le test surprenant d’OpenAI qui change la donne
Des contrôles parentaux inédits
En parallèle, OpenAI introduit de nouveaux outils de contrôle parental pour encadrer l’usage de ChatGPT par les adolescents. Les parents peuvent désormais configurer des paramètres spécifiques : définir des heures silencieuses, désactiver le mode vocal ou la mémoire, bloquer la génération d’images ou encore choisir de ne pas contribuer à l’entraînement des modèles.
Les comptes pour mineurs bénéficient en outre de protections supplémentaires, comme une exposition réduite aux contenus graphiques ou aux idéaux de beauté extrêmes. Un système de détection est également prévu pour identifier des signes de pensées suicidaires ou d’autodestruction. Dans ces cas, une équipe spécialisée analyse la situation et peut alerter directement les parents par e-mail, SMS ou notification. OpenAI précise qu’en cas de danger imminent et si les parents sont injoignables, le système pourrait être relié aux services d’urgence.
Entre innovation et polémique
Si ces mesures sont saluées par certains experts en sécurité numérique et associations de protection de l’enfance, d’autres y voient une dérive paternaliste qui risque de réduire la liberté des utilisateurs adultes. Plusieurs critiques estiment qu’OpenAI traite ses clients « comme des enfants », au détriment de la fluidité et de la qualité des réponses.
ChatGPT Go à 4,50 $ : est-ce la fin des abonnements IA hors de prix ?
Nick Turley, vice-président en charge de l’application ChatGPT, a tenté de rassurer en rappelant que le routage est temporaire et par message, et que l’utilisateur peut toujours savoir quel modèle est actif à un moment donné. Pour OpenAI, l’enjeu reste de trouver un équilibre entre sécurité et expérience utilisateur, un défi majeur dans l’ère de l’IA générative.