L’EU AI Act, le rรจglement europรฉen sur l’intelligence artificielle, est une nouvelle loi ambitieuse visant ร encadrer l’usage de l’IA dans l’Union Europรฉenne.
Aprรจs des annรฉes de nรฉgociations, elle est enfin entrรฉe en vigueur le 1er aoรปt 2024. Dรฉcouvrez ses objectifs, ses implications, et comment elle impactera le dรฉveloppement de l’IA.
Lire aussi :
- Pourquoi Elon Musk accuse-t-il OpenAI dโavoir trahi sa mission initiale et dโavantager Microsoft ?
- Comment utiliser Bluesky, lโapplication inspirรฉe de Twitter qui dรฉfie Elon Musk et son X ?
Objectifs de l’EU AI Act
L’objectif principal de l’EU AI Act est de crรฉer un cadre de confiance autour de l’IA, favorisant ร la fois l’innovation et la sรฉcuritรฉ. Le rรจglement cherche ร encourager l’adoption de l’IA tout en rรฉduisant les risques associรฉs, notamment en imposant des rรจgles strictes pour les applications potentiellement dangereuses. L’UE souhaite ainsi promouvoir une utilisation responsable et centrรฉe sur l’humain de l’intelligence artificielle.
Un cadre basรฉ sur les risques
Le rรจglement adopte une approche hiรฉrarchisรฉe selon le niveau de risque des applications d’IA :
- Applications ร risque inacceptable : Certaines utilisations de l’IA, comme les techniques manipulatrices ou le scoring social, sont interdites. Toutefois, ces interdictions comportent des exceptions, notamment pour des cas spรฉcifiques de maintien de l’ordre.
- Applications ร haut risque : Ces systรจmes incluent l’IA utilisรฉe dans des domaines critiques tels que la santรฉ, l’รฉducation, et l’infrastructure. Les dรฉveloppeurs doivent prouver la conformitรฉ ร des normes strictes en matiรจre de qualitรฉ des donnรฉes, de transparence et de cybersรฉcuritรฉ avant la mise sur le marchรฉ.
- Applications ร risque moyen : Ces cas, comme les chatbots ou les gรฉnรฉrateurs de mรฉdias synthรฉtiques, nรฉcessitent une transparence accrue. Les utilisateurs doivent รชtre informรฉs lorsqu’ils interagissent avec une IA.
- Applications ร faible risque : Elles ne sont soumises ร aucune rรฉglementation obligatoire, mais les bonnes pratiques sont encouragรฉes pour renforcer la confiance des utilisateurs.
Les implications pour l’IA gรฉnรฉrative (GPAIs)
L’รฉmergence de l’IA gรฉnรฉrative (GenAI), comme ChatGPT, a poussรฉ l’UE ร ajouter des exigences spรฉcifiques pour les modรจles d’IA dits “ร usage gรฉnรฉral” (GPAIs). Ces modรจles, utilisรฉs par de nombreuses applications en aval, sont soumis ร des rรจgles de transparence et doivent fournir une documentation technique. Les modรจles prรฉsentant des risques systรฉmiques, tels que ceux nรฉcessitant une puissance de calcul trรจs รฉlevรฉe, sont soumis ร des obligations supplรฉmentaires pour limiter les dangers potentiels.
Calendrier de conformitรฉ et prochaines รฉtapes
Le processus de mise en conformitรฉ est รฉchelonnรฉ sur plusieurs annรฉes, jusqu’en 2027. Les premiรจres obligations, comme les interdictions des cas d’utilisation ร risque inacceptable, entreront en vigueur dรจs dรฉbut 2025, suivies des exigences de transparence et de gouvernance un an plus tard.
Les entreprises disposent de cette pรฉriode pour ajuster leurs opรฉrations et se prรฉparer aux audits de conformitรฉ. Pendant ce temps, l’UE travaille sur des directives dรฉtaillรฉes, telles que les Codes de bonne pratique, pour clarifier les attentes et aider les entreprises ร respecter la loi.