Lors du CES 2026, Nvidia a officiellement levé le voile sur Rubin, sa nouvelle architecture de calcul destinée à devenir la référence absolue du matériel dédié à l’intelligence artificielle.
Présentée par le PDG Jensen Huang, cette plateforme est déjà entrée en phase de production et commencera à monter en puissance au cours du second semestre de l’année. Elle succède à Blackwell, elle-même héritière de Hopper et Lovelace, illustrant le rythme effréné d’innovation du géant américain.
Lire aussi :
- Les nouveaux écouteurs IA de Subtle peuvent-ils vraiment remplacer les applications de dictée vocale traditionnelles ?
- Plaud peut-il devenir le nouvel incontournable de la prise de notes IA avec son NotePin S et son app desktop ?
Une architecture pensée pour les nouveaux défis de l’IA
Baptisée en hommage à l’astronome Vera Rubin, cette nouvelle génération repose sur une architecture modulaire composée de six puces interconnectées. Le GPU Rubin en est le cœur, mais Nvidia a également revu en profondeur les composants qui gravitent autour du calcul pur. L’objectif est clair : lever les goulots d’étranglement liés au stockage, aux échanges de données et au raisonnement avancé des modèles d’IA.
Rubin introduit notamment une évolution majeure de NVLink, la technologie d’interconnexion maison, ainsi qu’une nouvelle génération de BlueField, dédiée aux flux de données. Nvidia intègre aussi un nouveau CPU Vera, spécifiquement conçu pour les charges de travail dites agentiques, où l’IA doit planifier, raisonner et agir sur le long terme.
Des performances et une efficacité énergétique sans précédent
Selon les chiffres communiqués par Nvidia, l’architecture Rubin offrirait des gains spectaculaires. En entraînement de modèles, elle serait 3,5 fois plus rapide que Blackwell, et jusqu’à 5 fois plus performante en inférence, atteignant des pics de 50 pétaflops. L’efficacité énergétique progresse également de façon massive, avec huit fois plus de calcul d’inférence par watt.
Un autre point clé concerne la gestion de la mémoire. Face à l’explosion des besoins en cache KV des modèles modernes, Nvidia introduit un nouveau palier de stockage externe, capable d’évoluer indépendamment du calcul. Cette approche vise à rendre les infrastructures IA plus flexibles, tout en réduisant les coûts à grande échelle.
Un pilier stratégique pour le cloud et les supercalculateurs
Rubin est déjà destiné à équiper la majorité des grands acteurs du cloud, dont OpenAI, Anthropic et Amazon Web Services. L’architecture sera également au cœur de supercalculateurs de nouvelle génération, comme Blue Lion de HPE ou le futur système Doudna du Lawrence Berkeley National Lab.
Dans un contexte de concurrence mondiale intense, Nvidia estime que 3 000 à 4 000 milliards de dollars seront investis dans les infrastructures IA au cours des cinq prochaines années. Avec Rubin, l’entreprise entend rester le pilier incontournable de cette nouvelle ère du calcul.

