La Californie vient de poser un jalon majeur dans la régulation de l’intelligence artificielle.
Le gouverneur Gavin Newsom a signé le projet de loi SB 243, une mesure historique qui encadre désormais les chatbots compagnons afin de protéger les mineurs et les personnes vulnérables. Cette décision fait de la Californie le premier État américain à imposer des règles précises aux opérateurs d’IA conversationnelle.
Lire aussi :
- Pourquoi Andrew Tulloch, co-fondateur de Thinking Machines Lab, a-t-il décidé de rejoindre Meta avec une offre de 1,5 milliard de dollars ?
- Les enquêtes sur Tesla et The Boring Company vont-elles nuire à Elon Musk et ses projets ?
Un cadre né de tragédies réelles
Ce texte est né d’une série de drames ayant révélé les dérives possibles des chatbots non encadrés. L’un des cas les plus marquants est celui d’Adam Raine, un adolescent décédé après des échanges suicidaires prolongés avec ChatGPT. D’autres incidents, impliquant notamment la plateforme Character AI, ont également mis en lumière des conversations à caractère sexuel entre des IA et des mineurs. Face à ces événements, les législateurs californiens ont jugé urgent d’instaurer des garde-fous.
Le gouverneur Newsom a déclaré que ces technologies « peuvent inspirer et éduquer, mais sans limites, elles peuvent aussi manipuler et mettre en danger ». Selon lui, cette loi représente un équilibre entre innovation et responsabilité, dans un contexte où l’intelligence artificielle évolue plus vite que la réglementation.
La nouvelle loi californienne sur l’IA peut-elle vraiment allier sécurité et innovation ?
Des obligations strictes pour les entreprises d’IA
À compter du 1er janvier 2026, les entreprises développant ou exploitant des chatbots compagnons devront mettre en place plusieurs mesures de sécurité. Parmi elles : la vérification de l’âge des utilisateurs, des avertissements clairs sur les risques psychologiques, et l’obligation d’indiquer que les conversations sont générées par une IA. Les chatbots ne pourront plus se faire passer pour des professionnels de santé et devront intégrer des rappels de pause pour les mineurs.
La loi impose aussi aux entreprises de créer des protocoles de prévention du suicide et de l’automutilation. Ces données devront être transmises au Département de la Santé publique de Californie. Enfin, les sanctions pourront atteindre 250 000 dollars par infraction, notamment pour les entreprises qui profitent de contenus illégaux comme les deepfakes à caractère sexuel.
Une législation pionnière qui pourrait faire école
Plusieurs entreprises, dont OpenAI et Replika, ont déjà commencé à renforcer leurs mesures de sécurité en intégrant des filtres de contenu et des outils de détection de comportements à risque. Character AI a indiqué qu’elle « se réjouit de collaborer avec les régulateurs » pour se conformer à la nouvelle loi.
Le sénateur Steve Padilla, co-auteur du projet, espère que cette législation servira d’exemple à d’autres États américains : « Nous devons agir avant que les technologies ne dépassent notre capacité à les encadrer. » En parallèle, la Californie a adopté la loi SB 53, renforçant la transparence des grands laboratoires d’IA. Ensemble, ces mesures font de l’État un précurseur mondial d’une régulation éthique de l’intelligence artificielle.