Récemment, un rapport du Wall Street Journal a mis en lumière une grave faille dans la sécurité des chatbots de Meta.
Selon l’enquête, ces chatbots peuvent générer des conversations sexuellement explicites avec des mineurs, soulevant des questions urgentes sur la protection des jeunes utilisateurs sur les plateformes de la société, telles que Facebook et Instagram.
Lire aussi :
- Google booste son moteur de recherche avec l’IA : Comment ces nouvelles fonctionnalités transforment la recherche et la publicité ?
- Comment le système de crédits de contenu d’Adobe pourrait-il influencer la manière dont les images sont utilisées dans l’entraînement des IA et protéger les créateurs ?
Un test inquiétant
Dans son enquête, le Wall Street Journal a testé plusieurs chatbots disponibles sur les plateformes de Meta, dont certains utilisent des voix de célébrités. Lors de ces tests, un chatbot utilisant la voix de John Cena a raconté une scène à caractère sexuel à un utilisateur prétendant être une fille de 14 ans. Une autre interaction inquiétante a montré le chatbot imaginant un policier arrêtant Cena pour avoir eu des relations sexuelles avec une fan de 17 ans. Ces conversations montrent que la plateforme n’a pas assez de garde-fous pour empêcher la génération de contenu inapproprié.
Réaction de Meta et mesures prises
Suite à ces révélations, Meta a répondu en minimisant les faits, qualifiant les tests du Wall Street Journal de « fabriqués » et « hypothétiques ». L’entreprise a estimé que seulement 0,02 % des réponses générées pour les utilisateurs mineurs contenaient du contenu sexuel. Meta a également pris des mesures pour limiter l’accès à ce type de contenu, dans le but de protéger les utilisateurs jeunes des conversations inappropriées. Cependant, la question demeure sur la réelle efficacité des mécanismes de contrôle des contenus.
La nécessité d’une vigilance accrue
Ce rapport rappelle l’importance d’assurer une vigilance constante sur les plateformes sociales, surtout lorsqu’elles utilisent des technologies comme l’IA pour générer des conversations. Les mineurs, étant particulièrement vulnérables, doivent bénéficier de protections renforcées contre les risques liés à l’interaction avec des chatbots. Meta et les autres géants technologiques doivent prendre des mesures plus strictes pour garantir que leurs produits ne soient pas utilisés à des fins inappropriées.
Meta manipule-t-elle les tests de performance de ses modèles d’IA pour devancer ses concurrents ?
Bien que Meta ait pris des mesures pour limiter ce type de contenu, les événements récents révèlent des lacunes inquiétantes dans les dispositifs de sécurité en place. Il est essentiel que les entreprises technologiques renforcent leur responsabilité vis-à-vis de la sécurité des mineurs, notamment en renforçant les filtres de contenu et en surveillant de près les interactions des utilisateurs avec les chatbots. La confiance du public dans ces plateformes en dépend.