Lโorganisation de recherche en intelligence artificielle Ai2, fondรฉe par le regrettรฉ Paul Allen, a prรฉsentรฉ OLMo 2, une famille de modรจles linguistiques qui se distingue par son caractรจre vรฉritablement open source.
Conรงus pour concurrencer les modรจles populaires tels que Llama de Meta, ces nouveaux modรจles promettent des performances รฉlevรฉes tout en respectant les principes de transparence et dโaccessibilitรฉ.
Lire aussi :
- Comment Pestle simplifie-t-elle la transformation des vidรฉos TikTok en recettes รฉtape par รฉtape ?
- Pourquoi Apple privilรฉgie-t-il les applications traditionnelles ร celles basรฉes sur lโintelligence artificielle dans ses nominations ?
OLMo 2 : une dรฉfinition rigoureuse de lโopen source
OLMo, acronyme deย Open Language Model, est une sรฉrie de modรจles qui respectent strictement la dรฉfinition de lโintelligence artificielle open source รฉtablie par lโOpen Source Initiative en octobre dernier. Cela implique que toutes les donnรฉes, outils et mรฉthodes utilisรฉs pour le dรฉveloppement de ces modรจles sont disponibles publiquement.
Le modรจle OLMo 2 a รฉtรฉ crรฉรฉ avec un ensemble dโoutils incluant des donnรฉes dโentraรฎnement accessibles, du code source ouvert, des recettes de formation reproductibles et des รฉvaluations transparentes. Lโobjectif dโAi2 est de fournir ร la communautรฉ open source les ressources nรฉcessaires pour innover davantage dans le domaine de lโIA.
Des modรจles performants avec des donnรฉes robustes
La famille OLMo 2 comprend deux modรจles principaux : OLMo 7B avec 7 milliards de paramรจtres et OLMo 13B avec 13 milliards de paramรจtres. Plus un modรจle possรจde de paramรจtres, plus il est capable de rรฉsoudre des problรจmes complexes avec prรฉcision.
Les modรจles ont รฉtรฉ entraรฎnรฉs sur un ensemble de donnรฉes impressionnant de 5 000 milliards de tokens, รฉquivalent ร environ 3 750 milliards de mots. Ces donnรฉes proviennent de sources variรฉes : sites web filtrรฉs pour leur qualitรฉ, articles acadรฉmiques, forums de discussion, et cahiers de mathรฉmatiques gรฉnรฉrรฉs par des humains ou de maniรจre synthรฉtique.
Rรฉsultat ? OLMo 2 offre des performances comparables, voire supรฉrieures, ร celles des modรจles ouverts comme Llama 3.1. Selon Ai2, le modรจle OLMo 7B surpasse mรชme Llama 3.1 8B sur plusieurs tรขches.
Applications et perspectives รฉthiques
Comme la plupart des modรจles de langage, OLMo 2 peut effectuer diverses tรขches textuelles : rรฉpondre ร des questions, rรฉsumer des documents ou encore รฉcrire du code. Distribuรฉ sous la licence Apache 2.0, il est accessible ร des fins commerciales, ouvrant ainsi de nombreuses possibilitรฉs pour les dรฉveloppeurs et entreprises.
Cependant, lโouverture totale de ces modรจles soulรจve des questions รฉthiques. Certains craignent que des modรจles comme OLMo soient dรฉtournรฉs ร des fins nuisibles. Mais Ai2 dรฉfend sa position, affirmant que la transparence permet non seulement de vรฉrifier et reproduire les travaux, mais aussi de dรฉmocratiser lโaccรจs ร lโIA et dโencourager des dรฉveloppements plus responsables.
Une avancรฉe majeure pour lโIA open source
OLMo 2 marque une รฉtape significative dans le domaine des modรจles de langage entiรจrement ouverts. Avec ses performances de pointe et sa philosophie axรฉe sur la collaboration et la transparence, il promet de repousser les limites de lโinnovation tout en garantissant un accรจs รฉquitable aux outils dโintelligence artificielle.