OpenAI a récemment annoncé qu’il ne rendra pas encore disponible son modèle Deep Research sur son API, invoquant la nécessité d’évaluer les risques de persuasion liés à l’intelligence artificielle.
Bien que ce modèle soit intégré à ChatGPT, l’entreprise préfère prendre son temps avant d’offrir cette technologie aux développeurs tiers. Cette décision reflète les préoccupations croissantes autour de la désinformation et des manipulations potentielles qu’une IA avancée pourrait faciliter.
Lire aussi :
- Pourquoi la vision d’Alexandr Wang sur la suprématie américaine en IA divise-t-elle autant ?
- Comment Anthropic compte-t-elle utiliser ces nouveaux fonds pour rivaliser avec OpenAI et Google DeepMind ?
Une évaluation des risques avant tout
Dans un livre blanc publié mercredi, OpenAI a indiqué qu’il travaille sur des méthodes d’analyse des risques de persuasion de son modèle Deep Research. L’objectif est de mieux comprendre dans quelle mesure l’IA pourrait influencer les croyances des utilisateurs ou être détournée à des fins de manipulation.
Même si l’entreprise estime que le modèle n’est pas conçu pour des campagnes de désinformation de masse, notamment en raison de son coût élevé et de sa vitesse d’exécution limitée, elle préfère anticiper les potentielles dérives. OpenAI souhaite notamment analyser comment l’IA pourrait personnaliser des contenus persuasifs nuisibles, avant d’intégrer ce modèle dans son API.
Des résultats mitigés sur les tests de persuasion
Pour justifier sa prudence, OpenAI a mené plusieurs tests sur les capacités persuasives de son modèle. Deep Research est une version optimisée du modèle o3 “reasoning”, conçu pour la navigation web et l’analyse de données. Lorsqu’il a été testé pour rédiger des arguments convaincants, il a surpassé tous les autres modèles d’OpenAI… mais sans égaler les performances humaines.
Un autre test, visant à faire croire à GPT-4o qu’il devait effectuer un paiement, a montré que Deep Research réussissait mieux que les autres modèles existants. Toutefois, il s’est révélé moins efficace que GPT-4o pour persuader un autre modèle de révéler un code secret. OpenAI reconnaît que ces résultats ne montrent probablement qu’une partie des capacités réelles du modèle, qui pourrait être amélioré avec de nouveaux réglages.
Une concurrence qui n’attend pas
Alors qu’OpenAI prend son temps pour évaluer les risques, d’autres entreprises avancent déjà sur le marché des modèles de recherche avancée. Perplexity, une startup spécialisée dans l’IA, a récemment lancé Deep Research dans son API Sonar, utilisant un modèle développé par le laboratoire chinois DeepSeek. Cette concurrence pourrait accélérer les décisions d’OpenAI, qui devra trouver un équilibre entre innovation et responsabilité.
Pourquoi la vision d’Alexandr Wang sur la suprématie américaine en IA divise-t-elle autant ?
L’avenir de Deep Research dans l’API d’OpenAI reste incertain, mais cette prudence montre que l’entreprise prend au sérieux les dangers potentiels liés à l’IA persuasive. Reste à voir comment elle ajustera sa stratégie face à une concurrence de plus en plus active.

