Depuis plusieurs annรฉes, des technologues alertent sur les dangers potentiels des systรจmes dโintelligence artificielle avancรฉs, prรฉvoyant des scรฉnarios catastrophiques pour lโhumanitรฉ.
Cependant, en 2024, ces avertissements ont รฉtรฉ รฉclipsรฉs par une vision pratique et prospรจre de lโIA gรฉnรฉrative, promue par l’industrie technologique โ une vision qui, par ailleurs, sโavรจre trรจs lucrative.
Lire aussi :
- Quels dรฉfis et opportunitรฉs Truth Terminal soulรจve-t-il pour lโalignement de lโintelligence artificielle dรฉcentralisรฉe ?
- Quels sont les avantages et les limites du nouveau modรจle de raisonnement Gemini 2.0 Flash Thinking de Google ?
La montรฉe et la chute des AI doomers
Ceux qui prรฉviennent des risques cataclysmiques de lโIA sont souvent surnommรฉs ยซย AI doomersย ยป, bien que ce terme ne soit pas de leur goรปt. Leurs craintes incluent des systรจmes capables de dรฉcider de tuer des humains, des utilisations oppressives par des pouvoirs autoritaires, ou des contributions ร lโeffondrement de la sociรฉtรฉ. En 2023, ces prรฉoccupations sont passรฉes du statut de sujet de niche ร des dรฉbats relayรฉs par des mรฉdias de masse comme MSNBC, CNN et le New York Times.
Des figures influentes, telles quโElon Musk et plus de 1ย 000 scientifiques, ont appelรฉ ร une pause dans le dรฉveloppement de lโIA pour รฉvaluer ses risques. Cependant, dรจs 2024, ces avertissements ont perdu en traction face ร lโessor des investissements en IA et ร une rรฉorientation de lโattention des acteurs politiques et รฉconomiques.
Google Gemini : Tout ce que vous devez savoir sur les modรจles d’IA gรฉnรฉrative
Les acteurs de la Silicon Valley contre-attaquent
En juin 2023, Marc Andreessen, cofondateur dโa16z, a publiรฉ un essai intitulรฉ ยซย Why AI will save the worldย ยป, dรฉnonรงant lโagenda des AI doomers et promouvant une vision optimiste. Selon lui, avancer rapidement et sans barriรจres rรฉglementaires est la meilleure maniรจre de garantir que lโIA ne tombe pas entre les mains dโun petit nombre dโentitรฉs puissantes. Cette approche, bien quโavantageuse pour les startups soutenues par a16z, a รฉtรฉ critiquรฉe pour son manque de responsabilitรฉ face aux problรจmes sociรฉtaux actuels.
De plus, lโannรฉe 2024 a vu une intensification des investissements en IA, surpassant les records prรฉcรฉdents. Malgrรฉ des promesses de ralentir pour des raisons de sรฉcuritรฉ, des acteurs comme Elon Musk et Sam Altman ont continuรฉ ร pousser pour des avancรฉes rapides. Parallรจlement, les efforts de rรฉgulation, comme lโordre exรฉcutif du prรฉsident Biden, ont รฉtรฉ largement abandonnรฉs par la nouvelle administration รฉlue en fin dโannรฉe.
Le cas de SB 1047 : une bataille perdue pour la rรฉgulation
En Californie, le projet de loi SB 1047 a reprรฉsentรฉ le point culminant des dรฉbats sur la sรฉcuritรฉ de lโIA. Soutenu par des chercheurs rรฉputรฉs comme Geoffrey Hinton et Yoshua Bengio, ce projet visait ร prรฉvenir des scรฉnarios extrรชmes comme les extinctions massives ou les cyberattaques majeures. Cependant, aprรจs son adoption par la lรฉgislature, il a รฉtรฉ vetoรฉ par le gouverneur Gavin Newsom, qui a qualifiรฉ la question de trop complexe pour รชtre rรฉsolue par une seule loi.
Le projet a รฉtรฉ critiquรฉ pour son approche trop ciblรฉe sur les grands modรจles dโIA, sans tenir compte des รฉvolutions technologiques comme les modรจles dโIA open source. Silicon Valley a jouรฉ un rรดle actif dans la campagne contre SB 1047, en diffusant des informations contestรฉes sur ses implications.