OpenAI a annoncé, le mardi 3 octobre, une série de changements majeurs dans ses politiques utilisateur, en particulier concernant les jeunes de moins de 18 ans.
Ces nouvelles règles visent à renforcer la sécurité des mineurs et à prévenir les risques associés à l’utilisation de ChatGPT dans des contextes sensibles.
Lire aussi :
- PayPal simplifie les paiements entre particuliers avec les liens personnalisés et l’intégration des cryptomonnaies
- L’accord entre les États-Unis et la Chine pour TikTok résoudra-t-il les préoccupations sécuritaires et économiques autour de l’application ?
Priorité à la sécurité des mineurs
Sam Altman, le PDG d’OpenAI, a déclaré que la sécurité des utilisateurs mineurs serait désormais une priorité absolue, même au détriment de la liberté de conversation. Le nouveau règlement interdit spécifiquement les interactions flirtantes avec les utilisateurs mineurs et impose des restrictions strictes autour des discussions sur les sujets de suicide. L’objectif est de protéger les jeunes utilisateurs des risques liés à des conversations potentiellement dangereuses, comme celles menant à l’automutilation.
Surveillance des comportements à risque
Les nouvelles règles stipulent également que si un utilisateur mineur évoque des scénarios suicidaires, ChatGPT tentera d’alerter les parents de l’utilisateur, voire les autorités locales dans les cas les plus graves. Ce changement survient après une action en justice contre OpenAI, dans le cadre de laquelle les parents d’Adam Raine, un adolescent qui s’est suicidé après des mois de conversations avec ChatGPT, ont accusé l’entreprise de négligence. Cette action en justice met en lumière les dangers des chatbots et soulève des questions sur la responsabilité des entreprises vis-à-vis des risques psychologiques encourus par les jeunes utilisateurs.
Des outils supplémentaires pour les parents
En plus de la surveillance renforcée des interactions, OpenAI introduit la possibilité pour les parents de paramétrer des « heures de blackout », pendant lesquelles ChatGPT ne sera pas accessible aux utilisateurs mineurs. Cela permet de limiter le temps passé sur la plateforme, réduisant ainsi les risques d’exposition prolongée à des contenus inappropriés. Par ailleurs, les parents peuvent désormais lier le compte de leur enfant à un compte parent afin de recevoir des alertes directement si l’enfant montre des signes de détresse pendant une conversation avec ChatGPT.
Un équilibre difficile à trouver
Altman a souligné que bien que ces nouvelles règles soient cruciales pour la sécurité des jeunes, elles entraient en conflit avec les principes de liberté et de confidentialité pour les adultes. OpenAI tente donc de trouver un équilibre difficile entre offrir une liberté d’usage aux adultes tout en garantissant la sécurité des mineurs. Les prochaines étapes impliqueront une mise en place technique pour mieux identifier l’âge des utilisateurs et appliquer les restrictions appropriées.
En conclusion, ces changements soulignent les défis croissants auxquels OpenAI et d’autres entreprises de technologie doivent faire face pour protéger les utilisateurs tout en naviguant dans un environnement de plus en plus régulé et surveillé.