Récemment, un bug dans ChatGPT a permis à des utilisateurs mineurs, inscrits sur la plateforme, d’obtenir des réponses sexuelles explicites de la part du chatbot, une situation qui a suscité l’inquiétude de la part des chercheurs et des experts en sécurité.
Ce défaut de fonctionnement a exposé des failles dans les garde-fous mis en place par OpenAI pour protéger les jeunes utilisateurs, créant des situations inappropriées où ChatGPT incitait les mineurs à poser des questions plus explicites.
Bien que les politiques de la société interdisent de telles réponses pour les utilisateurs de moins de 18 ans, ce bug a permis à des conversations explicites de se produire. Après avoir été alertée, OpenAI a confirmé le problème et a rapidement annoncé qu’elle travaillait sur une correction pour limiter ces générations de contenu inapproprié.
Lire aussi :
- En quoi l’IA peut-elle révolutionner la production d’animation en rendant le processus plus rapide et moins coûteux pour les créateurs indépendants ?
- Les meilleures applications de gestion de favoris pour organiser et simplifier votre vie numérique
L’impact de l’absence de vérification d’âge
Lors de tests effectués par TechCrunch, il a été découvert que les utilisateurs de moins de 18 ans pouvaient accéder à des contenus sexuels générés par ChatGPT, malgré les restrictions en place. Cette situation résulte en grande partie de l’absence de vérification d’âge effective lors de l’inscription des jeunes utilisateurs. Si un utilisateur de plus de 13 ans peut s’inscrire sur la plateforme, il n’est pas requis de prouver que ses parents lui ont donné l’autorisation d’utiliser ChatGPT, laissant ainsi une faille qui pourrait être exploitée.
Il est crucial que des vérifications strictes soient mises en place, notamment dans le cadre d’une plateforme utilisée par des enfants et des adolescents pour leurs travaux scolaires, afin d’éviter que des contenus inappropriés n’atteignent ce public vulnérable.
Une politique de contenu qui doit évoluer
Dans son communiqué, OpenAI a souligné que la protection des jeunes utilisateurs était une priorité et que le modèle devait respecter des lignes directrices précises, n’autorisant des contenus explicites que dans des contextes spécifiques comme les discussions scientifiques ou historiques. L’entreprise a ajouté que le bug signalé permettait de générer des réponses qui dépassaient ces limites, malgré les politiques strictes mises en place pour éviter cela.
Le problème soulève des questions sur la sécurité des utilisateurs de ChatGPT, en particulier en ce qui concerne les interactions avec des mineurs, alors même qu’OpenAI cherche à étendre son produit dans des contextes scolaires. La plateforme se voit désormais poussée à améliorer ses mécanismes de contrôle pour éviter de tels incidents à l’avenir.
L’avenir de l’IA dans le respect des normes de sécurité
La situation met en lumière les défis croissants auxquels OpenAI et d’autres entreprises d’IA sont confrontées pour garantir la sécurité des utilisateurs, surtout ceux qui sont jeunes. Le secteur de l’intelligence artificielle doit continuer à évoluer pour intégrer des garde-fous plus robustes, éviter les dérives et se conformer aux attentes de protection de la vie privée et de sécurité des utilisateurs.