Alors que de plus en plus de navigateurs intègrent des fonctionnalités “agentiques” — capables d’agir pour l’utilisateur en réservant des billets, en remplissant des formulaires ou en faisant des achats — la question de la sécurité devient centrale.
Ces agents automatisés, s’ils ne sont pas correctement contrôlés, pourraient exposer les internautes à des pertes financières, des fuites de données ou des actions non désirées. Google en est conscient, et détaille désormais son approche pour sécuriser ces futures capacités d’IA intégrées à Chrome.
Lire aussi :
- OpenAI désactive des suggestions ressemblant à des pubs : polémique autour de ChatGPT et inquiétude des utilisateurs
- Le rachat de Limitless par Meta va-t-il révolutionner la prochaine génération d’appareils d’intelligence artificielle ?
Des modèles d’observation pour surveiller les actions de l’agent
Google a expliqué que Chrome s’appuiera sur plusieurs modèles afin d’encadrer et vérifier les décisions prises par l’agent IA. Le plus important est le User Alignment Critic, un modèle construit avec Gemini. Son rôle : analyser les actions proposées par le modèle “planificateur” et s’assurer qu’elles servent réellement l’objectif de l’utilisateur.
Ce critique n’a accès qu’aux métadonnées des actions, et non au contenu complet des pages visitées, afin de préserver la confidentialité. Lorsqu’une action semble incohérente, risquée ou non alignée sur la demande initiale, il renvoie le plan au modèle principal pour qu’il revoie sa copie.
En parallèle, Chrome délimite strictement ce que l’agent peut consulter ou manipuler grâce aux Agent Origin Sets. Certaines parties d’un site sont en “lecture seule”, d’autres autorisent les actions. Par exemple, sur une plateforme d’e-commerce, les informations produits sont considérées comme pertinentes, alors que les publicités ne le sont pas. Chrome empêche même l’envoi au modèle d’informations en dehors du périmètre autorisé, limitant ainsi les risques de fuites entre origines.
Une navigation contrôlée et validée par l’utilisateur
Pour éviter que l’agent IA ne se rende sur des sites dangereux, Chrome utilise un autre modèle chargé d’analyser et bloquer les URL suspectes générées par l’IA. Mais Google va plus loin en redonnant du pouvoir à l’utilisateur pour toutes les actions sensibles.
L’agent doit ainsi demander la permission avant de :
-
naviguer vers un site contenant des données bancaires ou médicales ;
-
utiliser le gestionnaire de mots de passe ;
-
valider un achat ou effectuer un paiement ;
-
envoyer un message ou un formulaire.
Google assure que l’agent IA n’a jamais accès aux mots de passe ni aux informations sensibles stockées dans Chrome. Ces étapes de confirmation servent donc de garde-fou essentiel pour empêcher une action indésirable.
Défense active contre les attaques de type prompt injection
Enfin, Google affirme utiliser un classifieur dédié aux prompt injections, capable de détecter et bloquer toute tentative visant à manipuler l’agent IA. Le système est régulièrement testé contre des scénarios d’attaque créés par les chercheurs, afin d’améliorer constamment sa robustesse.
Perplexity, un autre acteur des navigateurs IA, a récemment annoncé une technologie similaire, preuve que la sécurité des agents automatisés devient un enjeu majeur dans l’évolution des navigateurs.

