Les navigateurs alimentés par l’intelligence artificielle comme ChatGPT Atlas d’OpenAI ou Comet de Perplexity se présentent comme une révolution dans la manière de naviguer sur le web.
Ces outils promettent de réaliser des actions à la place de l’utilisateur — cliquer, remplir des formulaires, réserver des services — tout en offrant une expérience plus fluide et intelligente. Mais derrière cette innovation se cache une réalité inquiétante : des failles de sécurité majeures menacent la confidentialité des données personnelles.
Lire aussi :
- Microsoft dévoile Mico, le nouvel assistant IA inspiré de Clippy qui humanise Copilot et révolutionne l’expérience utilisateur
- Sora d’OpenAI : une mise à jour majeure avec vidéos IA d’animaux, outils d’édition, nouvelles fonctions sociales et arrivée sur Android
Les promesses et les dangers du “browsing agent”
Les navigateurs IA reposent sur des “agents” capables d’interagir directement avec les sites web. Pour fonctionner efficacement, ils demandent un niveau d’accès très élevé : lecture des e-mails, calendrier, contacts et même connexion automatique à certains services. Cette liberté d’action peut faciliter la vie de l’utilisateur, mais elle augmente considérablement les risques de piratage et de perte de données.
Le problème principal réside dans les attaques par injection de prompt, une méthode qui consiste à insérer des instructions cachées dans une page web. Si un agent IA les analyse, il peut être manipulé pour exécuter des commandes malveillantes : envoi d’informations sensibles, achats non désirés ou publications sur les réseaux sociaux à l’insu de l’utilisateur.
Des experts en cybersécurité, comme ceux de Brave et McAfee, alertent sur la gravité de ces menaces. Ils estiment que les navigateurs IA représentent un nouveau défi systémique pour la sécurité en ligne, plus complexe à maîtriser que les failles classiques.
Pourquoi Mozilla ajoute-t-il Perplexity AI comme nouveau moteur de recherche dans Firefox ?
Les réponses d’OpenAI et Perplexity face à la menace
Conscients du danger, les deux géants ont annoncé des mesures de protection. OpenAI a introduit un “mode déconnecté” pour ChatGPT Atlas, empêchant l’agent d’être connecté au compte utilisateur pendant sa navigation. Cela limite les fuites potentielles de données, mais réduit aussi l’efficacité du service.
De son côté, Perplexity affirme avoir mis en place un système de détection en temps réel pour identifier les tentatives d’injection de prompt. Malgré ces précautions, les chercheurs reconnaissent que ces solutions ne garantissent pas une sécurité absolue. Comme le résume Steve Grobman, directeur technique de McAfee : « C’est un jeu du chat et de la souris entre les pirates et les défenseurs. »
Comment les utilisateurs peuvent se protéger ?
Les experts recommandent plusieurs gestes simples pour réduire les risques :
-
Utiliser des mots de passe uniques et robustes, accompagnés d’une authentification à deux facteurs.
-
Limiter les autorisations accordées aux agents IA, surtout pour les comptes sensibles (banque, santé, messageries privées).
-
Éviter d’utiliser ces navigateurs pour des transactions critiques tant que leur sécurité n’a pas été pleinement éprouvée.
L’adoption massive des navigateurs IA n’est qu’à ses débuts, mais leurs failles rappellent une réalité essentielle : plus un outil est intelligent, plus il doit être protégé.

