Lors de sa conférence annuelle re:Invent, AWS a dévoilé la disponibilité générale de ses nouvelles puces Trainium2 (T2), spécialement conçues pour l’entraînement et le déploiement des grands modèles de langage (LLMs).
En parallèle, l’entreprise a annoncé une troisième génération, les Trainium3, prévue pour la fin de 2025. Ces innovations promettent de renforcer la position d’AWS dans le domaine de l’intelligence artificielle.
Lire aussi :
- En quoi les nouvelles fonctionnalités de recherche de Threads se démarquent-elles face à Bluesky ?
- Quelles applications sur l’Apple Watch peuvent vous aider à gérer vos tâches et rester concentré au quotidien ?
Des performances impressionnantes avec Trainium2
Les puces Trainium2, présentées initialement il y a un an, sont désormais accessibles et offrent des performances jusqu’à quatre fois supérieures à celles de la génération précédente. Une instance EC2 équipée de 16 puces T2 peut atteindre une puissance de calcul de 20,8 pétaflops, permettant des gains significatifs en vitesse et en efficacité. Ces puces sont particulièrement adaptées pour gérer des modèles massifs, comme le modèle Llama 405B de Meta, avec une génération de tokens trois fois plus rapide que les solutions concurrentes majeures.
Pour des besoins encore plus exigeants, AWS a introduit les UltraServers Trn2, des serveurs comprenant jusqu’à 64 puces Trainium2 interconnectées, atteignant des performances maximales de 83,2 pétaflops en modèles sparses et précision FP8.
Un cluster d’IA d’une puissance inédite
AWS collabore avec Anthropic, un acteur clé des LLMs, pour créer un cluster géant composé de centaines de milliers de puces Trainium2. Ce cluster sera cinq fois plus puissant que l’actuel et, selon AWS, deviendra le plus grand cluster d’IA jamais signalé à ce jour. Cette infrastructure permettra de former des modèles toujours plus complexes, alignant AWS sur les besoins croissants des entreprises en matière d’intelligence artificielle.
Le Trainium3 : un bond technologique prévu pour 2025
Pour ne pas perdre de vitesse face à des concurrents comme Nvidia, AWS a également annoncé ses puces Trainium3. Ces dernières promettent des performances quatre fois supérieures à celles des Trainium2, grâce à une architecture de pointe en 3 nanomètres. Ces nouvelles puces seront intégrées aux UltraServers, offrant une puissance inégalée pour l’entraînement et l’inférence de modèles comptant des billions de paramètres.
Selon David Brown, vice-président Compute et Networking chez AWS, ces avancées visent à répondre aux besoins croissants des clients : « Les modèles massifs nécessitent une approche novatrice, et nos nouvelles puces permettent de construire des modèles plus grands, plus rapidement. »
Disponibilité des nouvelles solutions AWS
Les instances EC2 Trn2 sont désormais disponibles dans la région US East (Ohio), et d’autres régions seront bientôt desservies. Les UltraServers sont pour le moment en phase de prévisualisation, mais leur déploiement est imminent.
Avec ces annonces, AWS réaffirme son ambition de dominer le marché de l’intelligence artificielle en proposant des solutions à la pointe de l’innovation, adaptées aux besoins des entreprises les plus exigeantes.