Microsoft et OpenAI se sont engagés à protéger les élections mondiales contre les manipulations par les deepfakes en lançant un fonds de 2 millions de dollars destiné à contrer les menaces de désinformation alimentées par l’IA.
Cette initiative vise à protéger les électeurs, en particulier ceux des communautés vulnérables, contre les contenus trompeurs créés pour manipuler les votes et nuire à la démocratie.
Lire aussi :
- Meta affine sa stratégie face aux deepfakes : vers une nouvelle ère de transparence et de contextualisation
- Aura de Deepgram : Révolutionnez la communication avec l’IA conversationnelle, c’est impressionnant
Les risques liés aux deepfakes électoraux
En 2024, près de 2 milliards de personnes dans 50 pays participeront à des élections, un chiffre record. Le développement rapide des outils d’IA générative, comme les chatbots et les générateurs d’images, a créé un paysage menaçant. Désormais, n’importe qui peut générer de fausses vidéos, photos ou audios de personnalités politiques pour diffuser de la désinformation. Récemment, la Commission électorale indienne a même exhorté les partis politiques à éviter les deepfakes et les contenus trompeurs dans leurs campagnes en ligne.
Révolution numérique ou menace sociétale ? L’appel urgent de la communauté IA contre les Deepfakes
Engagement des géants technologiques
Pour relever ces défis, les grandes entreprises technologiques, y compris Microsoft et OpenAI, ont signé des engagements volontaires visant à créer un cadre commun pour contrer les deepfakes conçus spécifiquement pour tromper les électeurs. D’autres entreprises ont également pris des mesures restrictives. Google, par exemple, a annoncé que son chatbot Gemini ne répondra pas aux questions sur les élections, tandis que Meta limite les réponses liées aux élections dans son chatbot.
OpenAI a récemment lancé un détecteur de deepfakes destiné aux chercheurs pour identifier les faux contenus générés par son propre outil DALL-E. En outre, elle a rejoint le comité directeur de la Coalition for Content Provenance and Authenticity (C2PA), qui compte déjà parmi ses membres Adobe, Microsoft, Google et Intel.
Le fonds de résilience sociétale
Le nouveau « fonds de résilience sociétale » vise à promouvoir l’éducation et la littératie de l’IA parmi les électeurs et les communautés vulnérables. Les subventions seront accordées à plusieurs organisations, dont le Older Adults Technology Services (OATS), la C2PA, l’International Institute for Democracy and Electoral Assistance (International IDEA), et Partnership on AI (PAI). OATS utilisera sa subvention pour former les personnes âgées de plus de 50 ans aux États-Unis sur les bases de l’IA.
Révolution numérique ou menace sociétale ? L’appel urgent de la communauté IA contre les Deepfakes
Teresa Hutson, vice-présidente de Microsoft, a déclaré que la création du fonds de résilience sociétale n’était qu’une étape parmi d’autres dans l’engagement de Microsoft et OpenAI envers une utilisation responsable de l’IA. Ils continueront à collaborer avec des organisations partageant leurs valeurs pour promouvoir une meilleure compréhension de l’IA à travers la société et renforcer la résilience face aux deepfakes.