Les lunettes connectées Ray-Ban Meta suscitent de nouvelles inquiétudes quant à la confidentialité des données collectées par Meta.
En effet, l’entreprise a récemment clarifié que les images et vidéos partagées avec Meta AI à partir de ces lunettes peuvent être utilisées pour entraîner ses modèles d’intelligence artificielle. Cela soulève des questions sur la manière dont les utilisateurs sont informés de cette collecte de données et sur les implications en termes de vie privée.
Lire aussi :
- Comment la nouvelle fonctionnalité Footsteps de Snapchat peut-elle améliorer l’expérience des utilisateurs en matière de suivi et partage de leurs voyages ?
- Pourquoi Reddit a-t-il mis en place des restrictions pour les modérateurs souhaitant changer le statut des communautés ?
Un dispositif générateur de données
Meta a annoncé que, dans les régions où l’IA multimodale est disponible (actuellement les États-Unis et le Canada), les images et vidéos partagées avec Meta AI peuvent être utilisées pour améliorer l’intelligence artificielle, conformément à sa politique de confidentialité. Bien que Meta ait assuré que les photos et vidéos capturées par les lunettes ne sont pas utilisées pour l’entraînement des modèles tant qu’elles ne sont pas soumises à l’IA, le simple fait de demander à Meta AI d’analyser ces images les fait entrer dans un tout autre cadre réglementaire.
En d’autres termes, dès que les utilisateurs utilisent les fonctionnalités multimodales de Meta AI, leurs images deviennent une source de données exploitée par l’entreprise pour améliorer ses modèles. Cette pratique n’est pas explicitement mise en avant par Meta, ce qui peut induire en erreur les utilisateurs qui pensent simplement utiliser une fonctionnalité d’assistance.
Nouvelles fonctionnalités et collecte accrue
Avec le lancement de nouvelles fonctionnalités d’IA qui rendent plus facile l’utilisation des lunettes Ray-Ban Meta, la probabilité que les utilisateurs envoient des données pour l’entraînement augmente. Lors de la conférence Connect 2024, Meta a présenté une nouvelle fonctionnalité d’analyse vidéo en direct, permettant aux utilisateurs de scanner des environnements en temps réel, comme le contenu de leur placard pour choisir une tenue. Cependant, ce que l’entreprise ne promeut pas, c’est que ces images sont également transmises à Meta pour entraîner ses modèles.
Meta a également été pointée du doigt concernant les transcriptions des conversations vocales enregistrées via les lunettes, qui sont stockées par défaut pour entraîner les futurs modèles d’IA. Bien que les utilisateurs puissent choisir de ne pas partager les enregistrements vocaux, cette option doit être activée dès la première connexion à l’application Ray-Ban Meta.
Des implications pour la vie privée
Le fait que Meta ait payé 1,4 milliard de dollars à l’État du Texas pour régler un litige concernant l’utilisation de logiciels de reconnaissance faciale illustre bien les préoccupations que suscitent ces technologies. Le cas en question portait sur une fonctionnalité introduite en 2011, “Tag Suggestions”, qui utilisait des données biométriques sans consentement explicite. Aujourd’hui, certaines fonctionnalités de Meta AI ne sont pas disponibles au Texas, probablement en raison de la législation stricte en matière de protection des données biométriques.