La Linux Foundation a annoncé mardi le lancement de la plateforme Open Platform for Enterprise AI (OPEA), dans le but de développer des systèmes d’IA générative ouverts, multi-fournisseurs et modulaires.
Cette initiative est supervisée par l’organisation LF AI and Data de la Linux Foundation, qui se concentre sur les initiatives de plateformes liées à l’IA et aux données. Selon Ibrahim Haddad, directeur exécutif de LF AI and Data, l’objectif de l’OPEA est de faciliter le développement de systèmes d’IA générative robustes et évolutifs qui intègrent les meilleures innovations open source de l’écosystème.
Lire aussi :
- Quels sont les défis et les implications éthiques de l’intégration de l’IA générative dans le secteur de la santé ?
- Meta expérimente son chatbot IA sur WhatsApp, Instagram et Messenger en Inde et en Afrique
Une collaboration étendue pour innover
Outre Intel et Cloudera, OPEA regroupe des poids lourds de l’industrie tels que Red Hat (propriété d’IBM), Hugging Face, Domino Data Lab, MariaDB et VMware. Ces membres collaboreront pour créer des outils optimisés pour les chaînes d’outils IA et les compilateurs, permettant aux charges de travail IA de fonctionner sur différents composants matériels. Un point particulièrement mis en avant est le développement de pipelines hétérogènes pour la génération augmentée par récupération (RAG), un modèle de plus en plus populaire qui étend la base de connaissances d’un modèle IA au-delà des données d’entraînement initiales.
Défis et perspectives de l’OPEA
Les entreprises sont actuellement confrontées à une approche “faites-le vous-même” pour la mise en œuvre de RAG, en l’absence de normes établies permettant l’interopérabilité et l’ouverture. L’OPEA vise à standardiser les composants tels que les cadres, les plans d’architecture et les solutions de référence pour pallier ce problème. Un système d’évaluation est également en cours de développement, comprenant des critères tels que la performance, les fonctionnalités, la fiabilité et la préparation à l’échelle entreprise, afin de fournir des évaluations et classifications des déploiements d’IA générative.
Vers un développement modèle ouvert
En plus de ses efforts de normalisation, l’OPEA explore le potentiel de développement de modèles ouverts sur le modèle de la famille Llama de Meta et du DBRX de Databricks. Intel a déjà contribué des implémentations de référence pour un chatbot alimenté par IA générative, un résumeur de documents et un générateur de code optimisés pour son matériel Xeon 6 et Gaudi 2 dans le répertoire OPEA.
La question demeure : les membres de l’OPEA parviendront-ils réellement à collaborer pour construire des outils IA interopérables ? Les avantages d’une telle coopération sont clairs : les clients pourraient choisir librement parmi plusieurs fournisseurs en fonction de leurs besoins, ressources et budgets. Toutefois, l’histoire a souvent montré une tendance à l’enfermement chez un seul fournisseur. Espérons que l’OPEA parviendra à éviter ce piège et à ouvrir de nouvelles voies pour l’utilisation de l’IA générative dans l’entreprise.