Lors de la conférence Cloud Next, Google a présenté Ironwood, la septième génération de ses unités de traitement tensoriel (TPU).
Cette puce d’accélération AI est optimisée pour l’inférence des modèles d’intelligence artificielle et promet de meilleures performances, tout en étant plus économe en énergie. Ironwood devrait être disponible cette année pour les clients de Google Cloud et se positionne comme un acteur clé dans la compétition croissante du marché des puces d’IA.
Lire aussi :
- Meta accusé de gonfler les performances de Llama 4 : simple rumeur ou vraie stratégie douteuse ?
- Krea va-t-elle devenir la plateforme incontournable pour les designers à l’ère de l’intelligence artificielle générative ?
Une puce optimisée pour l’inférence des modèles d’IA
Ironwood est conçu pour offrir des performances exceptionnelles en matière d’inférence, le processus d’exécution des modèles d’IA. Contrairement aux générations précédentes, qui étaient surtout dédiées à l’entraînement des modèles, Ironwood est optimisé pour traiter des données en temps réel, nécessaires dans des applications telles que les assistants virtuels et les outils de résumé automatique. La puce est disponible en deux configurations : un cluster de 256 puces et un autre de 9 216 puces, permettant de répondre à des besoins variés selon les applications des utilisateurs.
Grâce à ses caractéristiques, Ironwood peut atteindre un pic de 4 614 TFLOPs et dispose de 192 Go de RAM dédiée. Sa bande passante, proche de 7,4 Tbps, permet un traitement rapide des données, crucial pour les applications à fort volume de requêtes.
Performances et efficacité énergétique optimisées
L’un des principaux avantages d’Ironwood est sa capacité à offrir un équilibre entre puissance de calcul et consommation d’énergie. Google met en avant que cette puce est la plus efficace de ses TPU à ce jour. En intégrant un cœur spécialisé, SparseCore, pour traiter des données liées à des algorithmes de recommandation et de classement, Ironwood minimise les déplacements de données et réduit la latence. Ce gain en efficacité énergétique est crucial pour des entreprises cherchant à déployer des applications d’IA en grande échelle tout en maîtrisant les coûts.
Un concurrent pour Nvidia et Amazon
L’arrivée d’Ironwood dans le domaine des puces d’accélération AI survient à un moment où la concurrence est plus forte que jamais. Si Nvidia domine actuellement le marché avec ses processeurs et cartes graphiques, des entreprises comme Amazon et Microsoft lancent leurs propres solutions, comme Trainium, Inferentia ou Maia 100. Avec Ironwood, Google cherche à s’imposer comme un acteur majeur dans le secteur, en offrant des produits plus accessibles tout en maintenant des niveaux de performance élevés.
L’intégration avec Google AI Hypercomputer
Google ne s’arrête pas là et prévoit d’intégrer Ironwood à son AI Hypercomputer, une plateforme modulaire de Google Cloud. Cette intégration permettra aux clients de Google d’optimiser leurs déploiements d’IA tout en bénéficiant des capacités accrues d’Ironwood pour exécuter des modèles complexes. L’objectif est de proposer une plateforme complète et flexible pour répondre aux besoins variés des entreprises en matière d’intelligence artificielle.
En conclusion, Ironwood se positionne comme une solution incontournable pour les applications AI de demain, combinant puissance de calcul, efficacité énergétique et flexibilité.