Les dรฉbats autour de la rรฉgulation de lโintelligence artificielle (IA) se multiplient, mais Martin Casado, partenaire chez Andreessen Horowitz (a16z), estime que les lรฉgislateurs ne comprennent pas les vรฉritables risques de cette technologie.
Lors de la confรฉrence TechCrunch Disrupt 2024, il a exposรฉ les raisons pour lesquelles tant de lois sur lโIA sont mal formulรฉes, se concentrant sur des peurs futuristes plutรดt que sur des problรฉmatiques rรฉelles.
Lire aussi :
- Comment la nouvelle fonctionnalitรฉ ยซ Partager sur TikTok ยป simplifie-t-elle la dรฉcouverte musicale pour les utilisateurs et les artistes ?
- Comment lโAPI de modรฉration de Mistral se distingue-t-elle des autres solutions sur le marchรฉ ?
Une rรฉglementation basรฉe sur des mythes plutรดt que sur des faits
Selon Casado, la plupart des tentatives de rรฉgulation de l’IA sont fondรฉes sur des craintes hypothรฉtiques. Il souligne que les dรฉfinitions de lโIA dans ces lois sont souvent vagues et imprรฉcises, ce qui entraรฎne des lรฉgislations inadaptรฉes. Par exemple, le projet de loi californien SB 1047 proposait dโajouter un “interrupteur dโurgence” aux grands modรจles dโIA, une mesure critiquรฉe par les experts du secteur. Casado a applaudi le veto du gouverneur Gavin Newsom, expliquant que la loi aurait paralysรฉ le dรฉveloppement de lโIA en Californie sans rรฉellement rรฉpondre aux risques actuels.
Comprendre les vรฉritables risques avant de lรฉgifรฉrer
Casado insiste sur la nรฉcessitรฉ de comprendre les diffรฉrences entre l’IA actuelle et d’autres technologies avant de crรฉer des lois spรฉcifiques. Il explique que les rรฉgulateurs devraient analyser les “risques marginaux”, cโest-ร -dire les nouveaux risques introduits par lโIA par rapport aux technologies existantes comme Google ou l’internet. Il soutient que les lois doivent รชtre construites sur la base de ces analyses, plutรดt que sur des craintes non fondรฉes. Pour lui, se prรฉcipiter vers une rรฉglementation sans cette comprรฉhension approfondie pourrait nuire ร lโinnovation.
Une approche existante et รฉprouvรฉe pour la rรฉgulation technologique
Casado rappelle quโun cadre rรฉglementaire robuste existe dรฉjร , dรฉveloppรฉ au fil des dรฉcennies pour d’autres technologies. Il propose que les mรชmes organismes, comme la Federal Communications Commission ou le House Committee on Science, Space, and Technology, soient responsables de lโencadrement de lโIA. Plutรดt que de crรฉer de nouvelles lois spรฉcifiques ร lโIA, il prรฉconise une adaptation des rรฉglementations actuelles pour prendre en compte les particularitรฉs de cette technologie.
Rรฉparer les erreurs passรฉes ne doit pas pรฉnaliser lโIA
Enfin, Casado met en garde contre le transfert des erreurs de rรฉgulation des rรฉseaux sociaux vers lโIA. Les problรจmes liรฉs aux mรฉdias sociaux, comme la collecte excessive de donnรฉes ou la cyberintimidation, ne devraient pas รชtre rรฉsolus par des lois restrictives sur lโIA. “Si nous avons fait des erreurs dans les rรฉseaux sociaux, allons les corriger lร -bas, mais nโimposons pas ces erreurs ร lโIA,” dรฉclare-t-il. Pour lui, lโIA mรฉrite une rรฉgulation juste, basรฉe sur ses propres risques, et non influencรฉe par des รฉchecs antรฉrieurs dans dโautres domaines.
En conclusion, Martin Casado appelle ร une rรฉflexion plus nuancรฉe sur la rรฉgulation de lโIA, axรฉe sur une comprรฉhension claire des risques actuels plutรดt que sur des scรฉnarios futuristes improbables.