Depuis le lancement des derniers modèles d’OpenAI, o3 et o4-mini, un phénomène inquiétant a émergé sur les réseaux sociaux : les utilisateurs utilisent ChatGPT pour tenter de déterminer la localisation de photos.
Cette nouvelle tendance repose sur la capacité des modèles à analyser des images téléchargées, de manière à en extraire des indices géographiques, même à partir de photos floues ou déformées.
Lire aussi :
- Découvrez Neptune : Une alternative à TikTok qui privilégie la créativité des créateurs
- La vérification d’identité d’OpenAI pourrait-elle réellement empêcher les abus et garantir une utilisation éthique de ses modèles IA ?
Une fonctionnalité avancée pour l’analyse d’images
Les nouveaux modèles o3 et o4-mini de ChatGPT ne se contentent pas d’analyser des photos ; ils peuvent également les recadrer, les faire pivoter et zoomer, ce qui leur permet d’examiner chaque détail visuel d’une image. Ces capacités combinées à la recherche en ligne permettent à l’IA de trouver des informations sur les lieux présents dans les photos, comme des villes, des monuments, des restaurants et même des bars, en s’appuyant sur de subtiles indices visuels.
L’idée est simple : les utilisateurs donnent à ChatGPT une image, et celui-ci utilise sa capacité à “raisonner” pour deviner la localisation. Par exemple, un utilisateur pourrait fournir une photo de façade d’un restaurant ou d’un paysage urbain, et ChatGPT tenterait de deviner de quelle ville ou de quel lieu il s’agit. Ces pratiques ont rapidement fait sensation sur X (anciennement Twitter), avec de nombreux exemples de personnes testant cette fonctionnalité.
Risques pour la vie privée et la sécurité des utilisateurs
Bien que cette fonctionnalité puisse paraître inoffensive et même amusante, elle soulève des préoccupations importantes en matière de confidentialité. En effet, rien n’empêche un utilisateur malveillant de prendre une capture d’écran d’une story Instagram, par exemple, et de l’utiliser pour localiser la personne qui l’a partagée, voire pour effectuer un “doxxing” (la publication de détails privés en ligne). Ce phénomène pourrait entraîner des violations de la vie privée sans précédent.
Même si cette capacité n’est pas totalement nouvelle (les utilisateurs pouvaient déjà recourir à des services similaires avant l’arrivée des nouveaux modèles d’OpenAI), l’ampleur du phénomène devient inquiétante avec la rapidité et l’efficacité des nouveaux outils d’IA. Cependant, certains tests montrent que o3 peut parfois se tromper ou rencontrer des difficultés à identifier certains lieux avec certitude, soulignant qu’aucune technologie n’est encore parfaite dans ce domaine.
Les défis à venir pour la régulation de l’IA
Le développement de ces modèles d’IA, capables de “raisonner” à partir d’images, soulève des questions cruciales sur la régulation et la gestion des risques associés à l’IA. OpenAI n’a pas abordé ces préoccupations de manière significative dans son dernier rapport de sécurité pour les modèles o3 et o4-mini. À mesure que l’IA devient plus puissante et plus sophistiquée, il est probable que de nouvelles régulations seront nécessaires pour protéger la vie privée des utilisateurs et prévenir les abus.