Anthropic a récemment annoncé l’introduction de nouvelles limites de taux hebdomadaires pour son outil d’intelligence artificielle, Claude Code.
Ces nouvelles restrictions visent à limiter l’utilisation de l’outil, en particulier par les abonnés qui l’utilisent de manière excessive en arrière-plan, 24 heures sur 24. L’objectif est également de contrer les abus d’utilisateurs qui partagent leurs comptes ou revendent l’accès à Claude Code.
Ces nouvelles limites entreront en vigueur le 28 août et concerneront les abonnés du plan Pro à 20 $ par mois, ainsi que les plans Max à 100 $ et 200 $ par mois. En plus des limites existantes qui se réinitialisent toutes les cinq heures, Anthropic ajoute désormais deux nouvelles limites hebdomadaires qui se réinitialisent tous les sept jours. L’une de ces limites concerne l’utilisation générale de Claude Code, tandis que l’autre est spécifique au modèle d’IA le plus avancé de la société, Claude Opus 4.
Lire aussi :
- Pourquoi les nouvelles limitations d’utilisation de Claude Code d’Anthropic suscitent-elles de la confusion et de la frustration parmi les utilisateurs ?
- Pourquoi Tesla a-t-elle signé un contrat de 16,5 milliards de dollars avec Samsung pour ses puces IA ?
Un impact limité sur la majorité des utilisateurs
Anthropic précise que la plupart des utilisateurs ne remarqueront pas de différence significative. Selon l’entreprise, moins de 5 % des abonnés seront affectés par ces nouvelles limites, en fonction de leurs habitudes d’utilisation actuelles. Les utilisateurs du plan Pro devraient disposer de 40 à 80 heures de Sonnet 4 par semaine, tandis que ceux du plan Max à 100 $ auront 140 à 280 heures de Sonnet 4 et 15 à 35 heures de Claude Opus 4. Les utilisateurs du plan Max à 200 $ pourront bénéficier de 240 à 480 heures de Sonnet 4 et de 24 à 40 heures de Claude Opus 4.
Cependant, la manière exacte dont Anthropic mesure l’utilisation des ressources reste floue, et la société n’a pas clarifié si les utilisateurs bénéficient de 20 fois plus de capacité de calcul que ceux du plan Pro en termes de jetons ou de calcul. Quoi qu’il en soit, ces limites visent à réguler l’accès aux ressources et à maintenir un service stable et fiable pour tous les utilisateurs.
Pourquoi Reddit poursuit-il Anthropic pour l’utilisation de ses données d’entraînement d’IA ?
Des ajustements nécessaires face à une demande massive
Anthropic a reconnu qu’il faisait face à des contraintes importantes en termes de ressources informatiques, une situation partagée par de nombreux autres fournisseurs d’IA. La demande croissante d’outils d’IA, combinée à des efforts pour augmenter la capacité de calcul et ouvrir de nouveaux centres de données, pousse les entreprises à revoir régulièrement leurs politiques de tarification et leurs offres. Dans un contexte de concurrence féroce dans le secteur des outils de codage IA, des ajustements comme ceux d’Anthropic sont devenus nécessaires pour maintenir une qualité de service tout en répondant à la demande.
En résumé, bien que ces limites puissent perturber certains utilisateurs intensifs de Claude Code, elles sont mises en place pour garantir la stabilité du service à long terme. Anthropic a indiqué qu’elle envisageait des options futures pour soutenir les cas d’utilisation prolongée, tout en maintenant la fiabilité des services proposés.

