La startup Tensormesh sort de l’ombre avec une levée de fonds de 4,5 millions de dollars pour révolutionner la manière dont les serveurs d’intelligence artificielle gèrent leurs charges de calcul.
Alors que la demande en puissance de calcul explose, la jeune entreprise veut permettre aux acteurs de l’IA d’extraire davantage d’inférence des GPU existants, sans multiplier les coûts.
Lire aussi :
- Pourquoi OpenAI est-elle accusée d’intimidation dans l’affaire tragique du jeune Adam Raine lié à ChatGPT ?
- ChatGPT Atlas : le nouveau navigateur d’OpenAI va-t-il bouleverser la recherche sur Internet et menacer la domination de Google Chrome ?
Une technologie open source au cœur de la performance
Ce financement, mené par Laude Ventures avec la participation de Michael Franklin, pionnier des bases de données, servira à développer une version commerciale de LMCache, un outil open source conçu par le cofondateur Yihua Cheng. Ce logiciel est déjà reconnu pour réduire les coûts d’inférence jusqu’à dix fois, notamment grâce à ses intégrations avec Google et Nvidia.
Le principe repose sur l’optimisation du KV cache (mémoire clé-valeur), un système utilisé pour accélérer le traitement des requêtes complexes. Dans les architectures classiques, cette mémoire est effacée après chaque requête, ce qui entraîne une perte d’efficacité. Tensormesh, au contraire, réutilise ces données en les stockant de manière intelligente pour qu’elles soient exploitées lors de futures requêtes similaires.
Nvidia renforce sa position de leader en investissant massivement dans des startups d’IA
Une solution pensée pour les interfaces de conversation et les agents IA
La technologie de Tensormesh se montre particulièrement utile pour les chatbots et agents conversationnels, dont les modèles doivent constamment se référer à l’historique des échanges. En conservant et en réutilisant le cache de requêtes, l’entreprise permet une réduction majeure de la consommation GPU tout en maintenant des performances élevées.
Selon Junchen Jiang, cofondateur et PDG de Tensormesh, l’approche actuelle de l’industrie est comparable à « un analyste brillant qui oublie tout ce qu’il a appris après chaque question ». En maintenant le cache dans une mémoire secondaire sans ralentir le système, Tensormesh offre une alternative économique et prête à l’emploi face à des solutions internes coûteuses, souvent développées par des équipes entières d’ingénieurs.
Ce que prépare Alibaba avec Nvidia pourrait bien bouleverser le futur de l’IA physique
Une réponse concrète à la crise des ressources GPU
Dans un contexte où la pénurie mondiale de GPU ralentit l’innovation, Tensormesh se positionne comme un acteur stratégique. En améliorant la réutilisation de la mémoire et la gestion des requêtes, la startup promet une meilleure rentabilité pour les entreprises d’IA et les laboratoires de recherche.
Alors que la course à l’efficacité computationnelle s’intensifie, cette approche pourrait bien transformer la manière dont les grands modèles d’IA sont exécutés. Pour les entreprises cherchant à faire plus avec moins, Tensormesh offre une solution à la fois techniquement élégante et économiquement indispensable.

