OpenAI a récemment annoncé une nouvelle mesure pour renforcer la sécurité autour de l’accès à ses modèles d’IA avancés.
À partir de maintenant, les organisations devront passer par un processus de vérification d’identité, appelé “Verified Organization”, pour pouvoir utiliser certains des modèles les plus sophistiqués proposés sur la plateforme. Cette initiative vise à garantir un usage sécurisé et responsable de l’intelligence artificielle, tout en permettant à la communauté des développeurs d’accéder à ces modèles.
Lire aussi :
- Les modèles d’IA peinent à déboguer des logiciels, selon une étude de Microsoft : Un obstacle pour l’automatisation du codage ?
- Bluesky : Tout savoir sur l’alternative à X qui fait de l’ombre à Twitter
Un processus de vérification pour un accès privilégié
La vérification d’identité sur la plateforme OpenAI nécessitera une pièce d’identité émise par le gouvernement, provenant d’un pays soutenant l’API d’OpenAI. Le processus est conçu pour renforcer la sécurité de l’API et pour s’assurer que les utilisateurs sont bien légitimes. Chaque organisation ne pourra effectuer cette vérification qu’une fois tous les 90 jours. De plus, toutes les organisations ne seront pas éligibles pour cette vérification, ce qui implique que l’accès aux modèles IA avancés pourrait être restreint à une certaine catégorie de développeurs.
OpenAI précise dans son communiqué que cette initiative fait partie de ses efforts pour garantir une utilisation sûre et éthique de l’intelligence artificielle tout en permettant son accès à une large communauté de développeurs. L’objectif est d’éviter les usages malveillants tout en continuant de soutenir les utilisateurs légitimes qui contribuent à l’innovation.
Renforcement de la sécurité et prévention des abus
Le principal objectif derrière cette nouvelle procédure de vérification est de limiter l’utilisation abusive des modèles d’IA par des développeurs malintentionnés. OpenAI mentionne dans sa déclaration qu’une minorité de développeurs utilise les API de manière contraire aux politiques d’utilisation de la plateforme. En imposant un processus de vérification d’identité, OpenAI cherche à réduire les risques d’utilisation nuisible de ses technologies tout en préservant un accès sécurisé aux modèles.
Le processus de vérification pourrait aussi être un moyen de lutter contre le vol de propriété intellectuelle. En 2024, une enquête menée par OpenAI a révélé qu’un groupe associé à DeepSeek, un laboratoire d’IA basé en Chine, aurait extrait de grandes quantités de données via l’API d’OpenAI pour entraîner ses propres modèles, en violation des conditions d’utilisation de la plateforme. Cette initiative pourrait donc être une réponse directe à ces incidents de sécurité.
OpenAI peut-elle vraiment rattraper son retard en misant sur un modèle de langage open source ?