La startup européenne Pruna AI vient d’annoncer l’ouverture de son framework d’optimisation de modèles d’intelligence artificielle, une initiative qui pourrait démocratiser l’accès à des techniques de compression avancées jusque-là réservées aux grandes entreprises du secteur.
Lire aussi :
- Prezent révolutionne la création de diapositives et lève 20M$ pour son expansion mondiale
- L’essor des études générées par IA remet-il en cause la fiabilité du peer review dans la recherche académique ?
Un outil tout-en-un pour compresser les modèles d’IA
Contrairement aux solutions classiques qui se concentrent sur une seule méthode, Pruna AI propose une plateforme unifiée qui combine plusieurs techniques d’optimisation : le caching, le pruning (élagage), la quantization (quantification) et la distillation. Ces procédés permettent de réduire significativement la taille des modèles tout en conservant des performances élevées.
John Rachwan, cofondateur et CTO de Pruna AI, compare leur approche à celle de Hugging Face qui a su standardiser l’utilisation des transformeurs dans le domaine de l’IA. “Nous faisons la même chose, mais pour les méthodes d’efficacité”, affirme-t-il. En plus de simplifier l’utilisation des outils de compression, Pruna AI évalue également l’impact de chaque méthode sur la qualité du modèle final, aidant ainsi les développeurs à faire les meilleurs choix techniques.
Une solution flexible déjà adoptée par des leaders
La plateforme de Pruna AI est compatible avec différents types de modèles : des grands modèles de langage aux modèles de diffusion, en passant par la reconnaissance vocale et la vision par ordinateur. Toutefois, l’entreprise met l’accent actuellement sur les modèles de génération d’images et de vidéos, répondant ainsi à la demande croissante du marché.
Des entreprises reconnues comme Scenario ou PhotoRoom utilisent déjà le framework de Pruna AI. Outre la version open source, la startup propose une offre professionnelle incluant des fonctionnalités avancées comme un “compression agent”. Cette IA autonome ajuste automatiquement le modèle selon les critères définis par l’utilisateur, par exemple : “je veux plus de vitesse sans perdre plus de 2 % de précision”.
Une approche économique et écologique
Pruna AI facture son service pro à l’heure, sur un modèle similaire à la location de GPU dans le cloud. Selon l’équipe, l’optimisation d’un modèle via leur outil permet de réduire drastiquement les coûts d’inférence et la consommation d’énergie. Un exemple : ils ont réussi à diviser par huit la taille d’un modèle Llama, tout en maintenant des performances acceptables.
Avec une levée de fonds de 6,5 millions de dollars réalisée récemment auprès d’investisseurs tels qu’EQT Ventures, Daphni, Motier Ventures et Kima Ventures, Pruna AI espère accélérer le développement de son agent de compression intelligent et élargir l’adoption de son framework.
En rendant son outil open source, la startup affirme son ambition : devenir une référence incontournable dans l’optimisation efficace et accessible des modèles d’intelligence artificielle.