En 2024, alors que beaucoup craignaient que les élections soient massivement influencées par de la désinformation générée par l’IA, la réalité s’est révélée moins alarmante que prévu.
Cependant, il serait imprudent de baisser la garde, car le véritable danger reste omniprésent, selon Oren Etzioni, chercheur en IA et fondateur de l’ONG TrueMedia. Ce dernier met en garde contre une menace insidieuse qui échappe souvent à l’attention du grand public.
Lire aussi :
- Comment Meta prévoit-il d’utiliser la réalité virtuelle pour transformer l’éducation dans les universités des États-Unis, du Royaume-Uni et d’Europe ?
- Comment l’ouverture de Grok aux utilisateurs gratuits pourrait-elle changer la dynamique du marché des chatbots IA ?
Une diversité de deepfakes méconnue
La plupart des gens pensent que les deepfakes se limitent à des vidéos truquées de célébrités. Pourtant, les deepfakes les plus dangereux ne sont pas ceux que l’on voit dans les médias traditionnels, mais ceux qui circulent dans des canaux plus obscurs comme Telegram ou des groupes WhatsApp. Oren Etzioni explique : « Pour chaque deepfake visible dans les médias, il y en a des centaines d’autres qui ciblent des communautés spécifiques et passent inaperçus. » Par exemple, des vidéos montrant des avions iraniens survolant Israël, bien que fausses, sont impossibles à vérifier pour ceux qui ne se trouvent pas sur place.
La Californie adopte de nouvelles lois pour encadrer l’intelligence artificielle et les deepfakes
TrueMedia : détecter l’indétectable
Pour lutter contre cette menace croissante, TrueMedia propose un service gratuit pour identifier les médias truqués. À l’aide d’une base de données solide et d’analyses approfondies, l’organisation combine des modèles d’IA et une équipe de juricomptabilité pour vérifier la véracité des contenus. « Notre mission principale est la détection. Nous ne donnons une conclusion qu’après une analyse approfondie, ce qui nous permet de minimiser les erreurs », déclare Etzioni.
Un défi immense mais nécessaire
La tâche de TrueMedia est ardue, car il n’existe pas de « Google de la désinformation » capable de mesurer l’ampleur du problème. Oren Etzioni a identifié trois défis principaux : combien de contenus sont générés, combien de personnes y sont exposées, et quel est l’impact réel sur les décisions importantes, comme les élections. « Nous ne pouvons pas encore mesurer précisément ces effets, mais nous devons absolument nous améliorer dans les quatre prochaines années », prédit-il.
Les solutions actuelles : insuffisantes face aux cyberattaques
Malgré les efforts de l’industrie pour rendre les médias générés plus facilement identifiables grâce à des filigranes, Etzioni reste sceptique quant à leur efficacité. « N’apportez pas un filigrane à une fusillade », résume-t-il. Ces méthodes sont utiles dans des écosystèmes collaboratifs, mais restent inefficaces face à des acteurs malveillants déterminés.
En conclusion, la désinformation générative est une menace silencieuse et en constante évolution. Bien que l’élection de 2024 n’ait pas été affectée comme on le craignait, il est clair que la vigilance doit rester de mise pour contrer cette nouvelle forme de manipulation numérique.