Meta continue de repousser les limites de l’innovation technologique en introduisant de nouvelles fonctionnalités basées sur l’intelligence artificielle (IA) pour ses lunettes connectées Ray-Ban Meta.
Avec la mise à jour du firmware v11, ces lunettes deviennent encore plus intelligentes, offrant des capacités de traduction en temps réel et une interaction améliorée avec l’assistant Meta AI.
Lire aussi :
- Comment les agents IA transforment-ils notre façon d’automatiser les tâches quotidiennes ?
- Pourquoi de plus en plus d’entreprises open source adoptent-elles des licences propriétaires ou hybrides ?
Une conversation continue grâce à l’IA en temps réel
Les lunettes Ray-Ban Meta permettent désormais une conversation fluide et interactive avec Meta AI. Grâce à la fonction “live AI”, les utilisateurs peuvent dialoguer en continu sans avoir à utiliser le mot-clé d’activation “Hey, Meta”. Ils peuvent poser des questions, demander des éclaircissements ou changer de sujet à tout moment, rendant l’expérience plus naturelle et intuitive.
Cette IA en temps réel s’étend également à l’utilisation de la caméra intégrée. Par exemple, un utilisateur peut poser des questions sur son environnement ou demander des informations sur ce qu’il voit en temps réel. Cette fonctionnalité, dévoilée lors de la conférence Connect de Meta cet automne, positionne la marque comme un pionnier face à des projets similaires comme Advanced Voice Mode d’OpenAI et Project Astra de Google.
Traduction instantanée pour faciliter les interactions
Avec le firmware v11, Meta introduit également une fonction de traduction en temps réel. Les utilisateurs peuvent désormais traduire instantanément des conversations en anglais, espagnol, français ou italien. Pendant une discussion, les lunettes traduisent ce qui est dit et diffusent la traduction directement via les haut-parleurs intégrés. Une transcription est également accessible depuis un smartphone connecté, facilitant les échanges linguistiques.
Cette innovation représente un pas de géant dans la communication interculturelle et fait des lunettes Ray-Ban Meta un outil idéal pour les voyages et les rencontres internationales.
Des fonctionnalités supplémentaires pour enrichir l’expérience
En plus de l’IA et de la traduction, la mise à jour introduit d’autres outils pratiques comme l’intégration de Shazam. Les utilisateurs peuvent simplement dire : “Hey, Meta, Shazam cette chanson” pour identifier la musique jouée dans leur environnement.
Meta n’a pas manqué de souligner que ces fonctionnalités sont encore en cours d’optimisation. L’entreprise s’engage à améliorer constamment l’expérience utilisateur en fonction des retours et des tests.
Un avenir prometteur pour les lunettes connectées
Avec cette mise à jour, Meta devient l’un des premiers acteurs à proposer des vidéos en IA en temps réel sur des lunettes connectées. Bien que Google travaille sur des projets similaires, Meta a pris une avance notable en commercialisant ces technologies avant ses concurrents.
Les Ray-Ban Meta continuent également de bien se vendre, renforçant leur position en tant que leader sur le marché des lunettes connectées en Europe, au Moyen-Orient et en Afrique. Ces améliorations ne font que confirmer le potentiel des lunettes intelligentes à transformer la manière dont nous interagissons avec le monde numérique et physique.