Le projet de loi SB 1047, récemment adopté par le Sénat californien, soulève de nombreuses interrogations quant à l’avenir de l’intelligence artificielle (IA) dans l’État.
Introduit par le sénateur Scott Wiener, ce texte vise à prévenir les risques catastrophiques potentiels liés aux modèles d’IA de grande envergure, tels que des cyberattaques massives ou des pertes humaines. Le gouverneur Gavin Newsom a jusqu’au 30 septembre pour signer ou opposer son veto à ce projet de loi. Si elle est promulguée, SB 1047 pourrait avoir des répercussions majeures sur l’industrie technologique de la Californie, un secteur qui joue un rôle central dans l’économie de l’État.
Lire aussi :
- Comment l’industrie musicale peut-elle protéger les droits des artistes face à l’essor de l’intelligence artificielle ?
- Quelles améliorations Google a-t-il apportées à la fonctionnalité de génération d’images de Gemini ?
Les raisons derrière la création de SB 1047
SB 1047 a été conçu dans un souci de prévention face aux risques que pourraient engendrer les IA avancées. Bien que peu de modèles actuels soient concernés par cette législation, l’objectif est d’anticiper les menaces futures. En effet, le texte prévoit que les développeurs de ces modèles soient tenus responsables des dommages causés par leurs technologies. Une telle mesure, comparable à la responsabilité des fabricants d’armes en cas de fusillade, pourrait changer la donne pour les entreprises de la Silicon Valley. Ces dernières seraient ainsi obligées de rédiger des rapports de sécurité détaillés et de prévoir un “kill switch” pour désactiver les modèles en cas de danger. Cette approche vise à instaurer une forme de régulation proactive dans un domaine où les risques sont encore mal définis.
Les conséquences potentielles pour l’industrie de l’IA
La mise en application de SB 1047 pourrait marquer un tournant pour l’industrie de l’IA en Californie. D’un côté, certains experts et acteurs du secteur, tels qu’Elon Musk et l’ancienne responsable de l’IA chez Microsoft, Sophia Velastegui, voient dans cette loi un compromis nécessaire pour assurer la sécurité tout en préservant l’innovation. De l’autre, les critiques ne manquent pas, notamment de la part des grands noms de la tech et des groupes de pression qui craignent que cette législation n’entrave l’essor de l’IA. Ils soulignent que la responsabilisation des entreprises pour des catastrophes potentielles pourrait freiner la recherche et le développement, nuisant ainsi à la compétitivité de la Californie sur la scène mondiale.
L’avenir de l’IA en Californie en suspens
Le gouverneur Newsom se trouve ainsi face à un choix difficile. Signer SB 1047 pourrait renforcer la position de la Californie en tant que leader dans la régulation de l’IA, mais au risque de ralentir l’innovation dans un secteur en pleine expansion. En revanche, opposer son veto à la loi pourrait laisser le champ libre à une régulation fédérale, potentiellement moins stricte mais aussi plus lente à se mettre en place. Quelle que soit la décision du gouverneur, l’issue de cette affaire sera déterminante pour l’avenir de l’intelligence artificielle en Californie et, par extension, pour l’ensemble de l’industrie technologique aux États-Unis.

