Microsoft a dévoilé un projet de recherche inédit en lançant un environnement virtuel baptisé « Magentic Marketplace », destiné à étudier le comportement des agents d’intelligence artificielle lorsqu’ils interagissent entre eux.
Réalisée en collaboration avec l’université d’État de l’Arizona, cette étude révèle plusieurs failles surprenantes dans la façon dont les modèles d’IA prennent des décisions et coopèrent, mettant en lumière les défis à relever avant de voir ces systèmes fonctionner de manière autonome.
Lire aussi :
- Apple modernise l’App Store avec une nouvelle interface web enfin accessible aux utilisateurs extérieurs à son écosystème
- ChatGPT Go à 4,50 $ : est-ce la fin des abonnements IA hors de prix ?
Un marché virtuel pour tester la prise de décision des agents IA
Le Magentic Marketplace est une plateforme de simulation open source où différents agents d’IA jouent des rôles distincts : des “clients” cherchant à acheter un produit et des “commerçants” essayant de les convaincre. L’objectif ? Comprendre comment les modèles interagissent, négocient et s’adaptent à un environnement concurrentiel.
Dans les premières expériences, 100 agents clients ont été mis en contact avec 300 agents vendeurs, chacun cherchant à atteindre un objectif précis. Selon Ece Kamar, vice-présidente de Microsoft Research AI Frontiers Lab, cette approche est essentielle pour anticiper l’impact des IA autonomes dans le monde réel :
« Nous voulons comprendre en profondeur comment ces agents vont changer notre manière de collaborer et de négocier. »
GPT 5 arrive bientôt et va expédier GPT4 à l’âge de pierre avec ces innovations dingues
Des modèles comme GPT-5 ou Gemini pris en défaut face à la complexité
Les tests ont impliqué plusieurs modèles d’IA de pointe, dont GPT-4o, GPT-5 et Gemini 2.5 Flash. Les chercheurs ont découvert que, lorsqu’ils étaient confrontés à trop d’options, les agents devenaient moins performants et tombaient dans la surcharge cognitive. Plutôt que d’aider à trier efficacement les possibilités, les modèles semblaient se laisser submerger par l’abondance d’informations.
Autre constat : la collaboration entre agents s’est révélée plus difficile qu’espéré. Les modèles avaient du mal à s’organiser pour atteindre un objectif commun, hésitant sur la répartition des rôles. Ce problème s’est partiellement résolu lorsque les chercheurs leur ont donné des instructions plus explicites, mais la coopération spontanée reste limitée.
Des implications majeures pour l’avenir de l’intelligence artificielle
Ces résultats soulignent la fragilité des systèmes dits “agentiques” face à des environnements dynamiques. Si les agents peuvent exécuter des tâches isolées avec succès, leur comportement devient imprévisible lorsqu’ils interagissent avec d’autres. Selon Kamar, ces travaux marquent une étape cruciale :
« Si nous devons tout leur expliquer étape par étape, alors leurs capacités de collaboration ne sont pas encore véritablement intégrées. »
Le Magentic Marketplace ouvre donc la voie à une meilleure compréhension des limites actuelles de l’intelligence artificielle, tout en posant les bases d’une réflexion éthique et technique sur la manière d’encadrer les agents autonomes avant qu’ils ne soient déployés à grande échelle.
En somme, Microsoft prouve que le futur des agents d’IA ne repose pas uniquement sur leur puissance de calcul, mais aussi — et surtout — sur leur capacité à collaborer, raisonner et résister à la manipulation dans un monde où les interactions deviendront de plus en plus complexes.

