Lors du sommet des Nations Unies sur l’avenir, Anna Makanju, vice-présidente des affaires mondiales chez OpenAI, a affirmé que le modèle d’intelligence artificielle O1 est pratiquement parfait pour corriger les biais.
Selon Makanju, ce modèle de raisonnement est capable de reconnaître ses propres biais et de générer des réponses plus équitables. Cependant, ces déclarations méritent d’être nuancées.
Lire aussi :
- Comment OpenAI et les grandes entreprises peuvent-elles renforcer la sécurité de leurs comptes pour se protéger contre ce type de piratage ?
- Comment Rabbit compte-t-il surmonter les défis d’optimisation du LAM pour répondre aux attentes des utilisateurs ?
Une capacité de raisonnement avancée
Le modèle O1 d’OpenAI se distingue des autres intelligences artificielles par sa capacité à évaluer ses propres réponses et à identifier des éventuels biais. Selon Makanju, O1 peut analyser un problème, vérifier sa réponse, et ajuster son raisonnement pour éviter les réponses potentiellement nuisibles ou discriminatoires. Cette capacité d’autoréflexion permet à O1 de se corriger et de répondre de manière plus impartiale.
OpenAI a d’ailleurs mené des tests internes qui montrent qu’O1 produit en moyenne moins de réponses toxiques ou discriminatoires par rapport à des modèles non basés sur le raisonnement, tels que GPT-4o. Cette technologie serait donc un premier pas prometteur vers une IA plus juste.
Un bilan à nuancer
Malgré ces avancées, affirmer que le modèle O1 corrige “pratiquement parfaitement” ses biais semble exagéré. En effet, lors de tests spécifiques menés par OpenAI, il a été constaté que le modèle O1, bien qu’il soit moins susceptible de discriminer implicitement en fonction de la race, de l’âge ou du genre, montre des signes de discrimination explicite dans certaines situations, notamment en ce qui concerne l’âge et la race.
Le modèle O1-mini, une version plus légère et plus économique, a affiché de moins bons résultats, avec une tendance plus marquée à la discrimination explicite en matière de genre, de race et d’âge. Cela montre que, malgré les progrès, il reste des lacunes à combler avant que ce type de modèle ne puisse être considéré comme une solution totalement fiable.
Des défis technologiques et économiques
Outre les questions de biais, le modèle O1 présente d’autres limitations. Il est lent, prenant parfois plus de 10 secondes pour fournir une réponse, et coûte cher, entre 3 et 4 fois plus que les modèles de la série GPT-4o. Cela limite l’accès à cette technologie aux entreprises disposant de ressources financières importantes, ce qui pourrait creuser des inégalités d’accès à des IA moins biaisées.
En conclusion, bien que le modèle O1 ouvre la voie à des IA capables de corriger leurs propres biais, il reste encore du chemin à parcourir avant qu’une véritable neutralité et une accessibilité universelle ne soient atteintes.