Microsoft a récemment mis à jour les conditions d’utilisation de son service Azure OpenAI, interdisant explicitement l’utilisation de ses outils d’IA générative pour la reconnaissance faciale par les départements de police aux États-Unis.
Cette décision renforce les politiques de l’entreprise visant à limiter les applications potentiellement intrusives de l’intelligence artificielle, notamment celles qui pourraient être utilisées de manière non éthique dans des contextes de surveillance et de reconnaissance.
Lire aussi :
- Comment le Royaume-Uni envisage-t-il d’utiliser l’intelligence artificielle pour protéger les jeunes utilisateurs d’nternet contre les contenus nuisibles et l’exploitation en ligne ?
- Amazon se lance dans l’hébergement des modèles d’IA générative personnalisés pour les entreprises
Réponses aux préoccupations éthiques et risques technologiques
Les modifications apportées surviennent après que des critiques aient souligné les dangers de l’utilisation des modèles d’IA, comme GPT-4 d’OpenAI, dans des applications policières. Ces dangers incluent la possibilité que l’IA invente des faits ou exacerbe les biais raciaux, problèmes particulièrement préoccupants dans le contexte des interactions entre la police et les communautés de couleur. Microsoft a également interdit l’utilisation de la technologie de reconnaissance faciale en temps réel sur les caméras mobiles, comme les caméras corporelles et les dashcams, qui pourraient tenter d’identifier des personnes dans des environnements non contrôlés.
Implications pour l’avenir de la surveillance par IA
Alors que Microsoft continue de naviguer dans le paysage complexe de la régulation de l’IA, les nouvelles restrictions illustrent un effort pour équilibrer l’innovation technologique avec des considérations éthiques et de respect de la vie privée. La société a laissé entendre que certains usages de la reconnaissance faciale pourraient encore être permis dans des contextes contrôlés, comme les bureaux, mais les applications par les forces de l’ordre aux États-Unis sont désormais clairement limitées. Ces décisions s’alignent sur l’approche récente de Microsoft et OpenAI concernant les contrats liés à l’application de la loi et à la défense, reflétant une prudence croissante face aux potentielles retombées négatives de la technologie.
Intelligence artificielle ou bénéfices financiers ? Le combat d’Elon Musk contre OpenAI et Microsoft
Vers une régulation plus stricte de l’IA dans les opérations gouvernementales
L’engagement de Microsoft à restreindre l’utilisation de ses technologies d’IA dans les opérations de reconnaissance faciale souligne les défis et les responsabilités associés au déploiement de ces technologies dans des secteurs sensibles. La société semble déterminée à prendre en compte les implications éthiques de l’IA, tout en explorant ses applications potentielles dans des contextes sécurisés et régulés. Cela pourrait indiquer une ère de régulation plus stricte et de supervision accrue des technologies d’intelligence artificielle, particulièrement dans les interactions entre citoyens et gouvernement.