Lors de TechCrunch Disrupt 2024, l’intensité était au rendez-vous alors que les experts en intelligence artificielle débattaient de la propagation de la désinformation.
Les avis se sont échangés dans un esprit de respect mais sans compromis, avec des critiques sévères dirigées à la fois contre les réseaux sociaux et l’IA générative. À travers ce panel animé, les participants ont souligné les dangers de ce qu’ils appellent une machine à désinformation perpétuelle.
Lire aussi :
- Comment l’expansion des Résumés d’IA va-t-elle transformer votre expérience de recherche sur Google ?
- Comment les modèles du monde en IA pourraient-ils transformer notre compréhension des environnements virtuels et réels ?
L’IA générative : Une machine à désinformation incontrôlable ?
Imran Ahmed, PDG du Center for Countering Digital Hate, a exprimé ses inquiétudes en qualifiant l’IA générative de machine à bêtises perpétuelle. Selon lui, l’évolution économique de la production de fausses informations a atteint un point critique. Le coût de production et de diffusion d’une fausse information a été réduit à zéro par l’IA générative, a-t-il expliqué. Cette boucle de désinformation s’auto-alimente, optimisant constamment les contenus via des tests et des analyses, augmentant ainsi l’impact des fausses informations à une échelle sans précédent.
Les rapports de transparence : Une solution inefficace ?
Brandie Nonnecke, directrice du CITRIS Policy Lab de l’Université de Berkeley, a pour sa part dénoncé les limites des efforts de transparence des entreprises technologiques. Elle estime que les rapports de transparence donnent une illusion de contrôle. On nous dit qu’ils font un excellent travail en supprimant des milliers de contenus nuisibles, mais qu’en est-il de ceux qui restent ? Ces rapports masquent une gestion souvent désorganisée, a-t-elle déclaré. Pour elle, les plateformes se retrouvent souvent submergées par la quantité de contenu, rendant le contrôle de la désinformation encore plus complexe.
La nécessité de conserver les avantages de l’IA
Pamela San Martin, co-présidente du comité de surveillance de Facebook, a reconnu les faiblesses de l’autorégulation mais a averti contre une régulation trop stricte par crainte. Elle a rappelé que les élections mondiales n’ont pas été inondées de contenus générés par l’IA, comme cela avait été redouté. Nous avons constaté une hausse, mais sans débordement total de contenus d’IA, a-t-elle précisé. Elle a ainsi souligné l’importance de réguler intelligemment pour conserver les avantages que l’IA peut offrir, sans pour autant sombrer dans des réactions excessives.
Ce débat à TechCrunch Disrupt souligne un besoin urgent de stratégie et de régulation autour de l’IA générative et de la désinformation. Les experts s’accordent sur la nécessité de rester vigilants tout en trouvant un équilibre entre innovation et protection contre les dérives de la technologie.