L’EU AI Act, le règlement européen sur l’intelligence artificielle, est une nouvelle loi ambitieuse visant à encadrer l’usage de l’IA dans l’Union Européenne.
Après des années de négociations, elle est enfin entrée en vigueur le 1er août 2024. Découvrez ses objectifs, ses implications, et comment elle impactera le développement de l’IA.
Lire aussi :
- Pourquoi Elon Musk accuse-t-il OpenAI d’avoir trahi sa mission initiale et d’avantager Microsoft ?
- Comment utiliser Bluesky, l’application inspirée de Twitter qui défie Elon Musk et son X ?
Objectifs de l’EU AI Act
L’objectif principal de l’EU AI Act est de créer un cadre de confiance autour de l’IA, favorisant à la fois l’innovation et la sécurité. Le règlement cherche à encourager l’adoption de l’IA tout en réduisant les risques associés, notamment en imposant des règles strictes pour les applications potentiellement dangereuses. L’UE souhaite ainsi promouvoir une utilisation responsable et centrée sur l’humain de l’intelligence artificielle.
Un cadre basé sur les risques
Le règlement adopte une approche hiérarchisée selon le niveau de risque des applications d’IA :
- Applications à risque inacceptable : Certaines utilisations de l’IA, comme les techniques manipulatrices ou le scoring social, sont interdites. Toutefois, ces interdictions comportent des exceptions, notamment pour des cas spécifiques de maintien de l’ordre.
- Applications à haut risque : Ces systèmes incluent l’IA utilisée dans des domaines critiques tels que la santé, l’éducation, et l’infrastructure. Les développeurs doivent prouver la conformité à des normes strictes en matière de qualité des données, de transparence et de cybersécurité avant la mise sur le marché.
- Applications à risque moyen : Ces cas, comme les chatbots ou les générateurs de médias synthétiques, nécessitent une transparence accrue. Les utilisateurs doivent être informés lorsqu’ils interagissent avec une IA.
- Applications à faible risque : Elles ne sont soumises à aucune réglementation obligatoire, mais les bonnes pratiques sont encouragées pour renforcer la confiance des utilisateurs.
Les implications pour l’IA générative (GPAIs)
L’émergence de l’IA générative (GenAI), comme ChatGPT, a poussé l’UE à ajouter des exigences spécifiques pour les modèles d’IA dits “à usage général” (GPAIs). Ces modèles, utilisés par de nombreuses applications en aval, sont soumis à des règles de transparence et doivent fournir une documentation technique. Les modèles présentant des risques systémiques, tels que ceux nécessitant une puissance de calcul très élevée, sont soumis à des obligations supplémentaires pour limiter les dangers potentiels.
Calendrier de conformité et prochaines étapes
Le processus de mise en conformité est échelonné sur plusieurs années, jusqu’en 2027. Les premières obligations, comme les interdictions des cas d’utilisation à risque inacceptable, entreront en vigueur dès début 2025, suivies des exigences de transparence et de gouvernance un an plus tard.
Les entreprises disposent de cette période pour ajuster leurs opérations et se préparer aux audits de conformité. Pendant ce temps, l’UE travaille sur des directives détaillées, telles que les Codes de bonne pratique, pour clarifier les attentes et aider les entreprises à respecter la loi.