Anthropic frappe un grand coup sur le marché de l’IA en annonçant une mise à jour majeure de son modèle Claude Sonnet 4.
Désormais, les clients entreprises utilisant l’API pourront envoyer jusqu’à un million de tokens dans une seule requête, soit l’équivalent de 750 000 mots, plus que l’intégralité de la trilogie Le Seigneur des Anneaux. Cette avancée, qui surpasse largement la limite précédente de 200 000 tokens, pourrait renforcer la position d’Anthropic face à une concurrence toujours plus agressive, notamment OpenAI et Google.
Lire aussi :
- Anthropic vise une valorisation de 170 milliards de dollars avec une levée de fonds controversée
- Claude Explains : L’IA d’Anthropic au service de la création de contenu
Un atout stratégique pour séduire les développeurs
Ce nouveau contexte étendu est particulièrement avantageux pour les plateformes de codage assisté par IA, qui constituent une grande partie de la clientèle d’Anthropic. Claude est déjà intégré à des outils comme GitHub Copilot, Windsurf et Cursor. Pouvoir traiter un projet entier — jusqu’à 75 000 lignes de code d’un seul coup — permet à l’IA de mieux comprendre la structure globale d’une application et de produire un code plus cohérent et optimisé.
Brad Abrams, responsable produit de la plateforme Claude, souligne que ce gain de contexte profite surtout aux tâches de codage de longue durée, où l’IA travaille de manière autonome pendant plusieurs minutes ou heures. Grâce à cette mémoire élargie, Claude peut conserver et exploiter l’historique complet de ses actions, améliorant ainsi la continuité et la précision du développement.
Pourquoi Anthropic coupe brutalement les ponts avec une startup courtisée par OpenAI ?
Une réponse directe à la pression concurrentielle
Si Anthropic était déjà reconnu pour la puissance et la fiabilité de ses modèles, l’arrivée de GPT-5 d’OpenAI et ses 400 000 tokens a rebattu les cartes. Avec un contexte plus de deux fois supérieur, Claude Sonnet 4 se positionne comme un choix premium pour les entreprises qui traitent de gros volumes de données ou des projets complexes.
Anthropic a également veillé à rendre ce mode disponible via ses partenaires cloud majeurs comme Amazon Bedrock et Google Cloud Vertex AI, renforçant ainsi l’accessibilité et la flexibilité pour les développeurs. Cette approche multi-cloud pourrait séduire des acteurs qui souhaitent éviter une dépendance exclusive à une seule infrastructure, un point sur lequel OpenAI reste encore lié à Azure Government Cloud pour certaines offres.
Entre prouesse technique et limites réelles
Si d’autres acteurs comme Google ou Meta affichent des chiffres encore plus spectaculaires, Anthropic insiste sur la notion de « fenêtre de contexte effective » : il ne s’agit pas seulement de traiter une grande quantité d’informations, mais de réellement en comprendre et en exploiter l’essentiel.
Cette avancée ne se fera toutefois pas sans contrepartie tarifaire. Au-delà de 200 000 tokens, les requêtes seront facturées 6 $ par million de tokens en entrée et 22,50 $ par million en sortie, contre respectivement 3 $ et 15 $ auparavant. Un surcoût qui pourrait être absorbé par les entreprises pour bénéficier d’une compréhension contextuelle inégalée.
Avec ce bond technologique, Anthropic affirme sa volonté de rester en tête dans la course aux modèles IA pour développeurs, en misant sur la performance, la flexibilité et la précision plutôt que sur des chiffres bruts difficilement exploitables.