Depuis plusieurs années, des technologues alertent sur les dangers potentiels des systèmes d’intelligence artificielle avancés, prévoyant des scénarios catastrophiques pour l’humanité.
Cependant, en 2024, ces avertissements ont été éclipsés par une vision pratique et prospère de l’IA générative, promue par l’industrie technologique — une vision qui, par ailleurs, s’avère très lucrative.
Lire aussi :
- Quels défis et opportunités Truth Terminal soulève-t-il pour l’alignement de l’intelligence artificielle décentralisée ?
- Quels sont les avantages et les limites du nouveau modèle de raisonnement Gemini 2.0 Flash Thinking de Google ?
La montée et la chute des AI doomers
Ceux qui préviennent des risques cataclysmiques de l’IA sont souvent surnommés « AI doomers », bien que ce terme ne soit pas de leur goût. Leurs craintes incluent des systèmes capables de décider de tuer des humains, des utilisations oppressives par des pouvoirs autoritaires, ou des contributions à l’effondrement de la société. En 2023, ces préoccupations sont passées du statut de sujet de niche à des débats relayés par des médias de masse comme MSNBC, CNN et le New York Times.
Des figures influentes, telles qu’Elon Musk et plus de 1 000 scientifiques, ont appelé à une pause dans le développement de l’IA pour évaluer ses risques. Cependant, dès 2024, ces avertissements ont perdu en traction face à l’essor des investissements en IA et à une réorientation de l’attention des acteurs politiques et économiques.
Google Gemini : Tout ce que vous devez savoir sur les modèles d’IA générative
Les acteurs de la Silicon Valley contre-attaquent
En juin 2023, Marc Andreessen, cofondateur d’a16z, a publié un essai intitulé « Why AI will save the world », dénonçant l’agenda des AI doomers et promouvant une vision optimiste. Selon lui, avancer rapidement et sans barrières réglementaires est la meilleure manière de garantir que l’IA ne tombe pas entre les mains d’un petit nombre d’entités puissantes. Cette approche, bien qu’avantageuse pour les startups soutenues par a16z, a été critiquée pour son manque de responsabilité face aux problèmes sociétaux actuels.
De plus, l’année 2024 a vu une intensification des investissements en IA, surpassant les records précédents. Malgré des promesses de ralentir pour des raisons de sécurité, des acteurs comme Elon Musk et Sam Altman ont continué à pousser pour des avancées rapides. Parallèlement, les efforts de régulation, comme l’ordre exécutif du président Biden, ont été largement abandonnés par la nouvelle administration élue en fin d’année.
Le cas de SB 1047 : une bataille perdue pour la régulation
En Californie, le projet de loi SB 1047 a représenté le point culminant des débats sur la sécurité de l’IA. Soutenu par des chercheurs réputés comme Geoffrey Hinton et Yoshua Bengio, ce projet visait à prévenir des scénarios extrêmes comme les extinctions massives ou les cyberattaques majeures. Cependant, après son adoption par la législature, il a été vetoé par le gouverneur Gavin Newsom, qui a qualifié la question de trop complexe pour être résolue par une seule loi.
Le projet a été critiqué pour son approche trop ciblée sur les grands modèles d’IA, sans tenir compte des évolutions technologiques comme les modèles d’IA open source. Silicon Valley a joué un rôle actif dans la campagne contre SB 1047, en diffusant des informations contestées sur ses implications.