L’essor des technologies de génération de voix par intelligence artificielle (IA) a suscité un intérêt croissant, tant pour leurs applications innovantes que pour leurs usages potentiellement malveillants.
L’un des cas récents les plus préoccupants concerne ElevenLabs, une startup spécialisée dans la génération vocale, dont les produits ont été associés à une campagne de désinformation orchestrée par des acteurs russes.
Lire aussi :
- ARC-AGI : Un pas en avant vers l’IA générale ou une remise en question des tests actuels ?
- En quoi le générateur d’images Aurora pourrait-il révolutionner la création visuelle sur les réseaux sociaux ?
Une campagne de désinformation
Selon un rapport de Recorded Future, une entreprise de renseignement sur les menaces, une opération nommée « Operation Undercut » a été mise en place pour miner le soutien de l’Europe envers l’Ukraine. Cette campagne a utilisé des vidéos trompeuses et des faux reportages, agrémentés de voix générées par IA, dont celles fournies par ElevenLabs. Ces vidéos visaient à ternir l’image de responsables ukrainiens et à saper la confiance du public européen dans l’aide militaire destinée à l’Ukraine. L’une des vidéos les plus notables affirmait que « même les brouilleurs ne peuvent sauver les chars Abrams américains », insinuant que l’aide militaire était vaine.
L’innovation auditive d’ElevenLabs : Un pas de géant dans la création de contenu IA
L’impact de l’IA dans la désinformation
La capacité de l’IA à produire rapidement des contenus audio en plusieurs langues a permis aux créateurs de ces vidéos de diffuser leur message à un public plus large. Les vidéos, dotées de voix générées qui ne présentaient pas d’accents étrangers discernables, apparaissaient plus légitimes que les enregistrements audio réalisés par de vraies personnes. En soumettant ces clips au classificateur vocal d’ElevenLabs, les chercheurs de Recorded Future ont pu confirmer l’utilisation de leur technologie dans ces productions trompeuses.
Réactions et conséquences
Face à ces révélations, la réaction d’ElevenLabs a été de renforcer ses mesures de sécurité. Bien que la société interdise « l’imitation non autorisée, nuisible ou trompeuse », la nature des outils qu’elle fournit soulève des questions sur la responsabilité des entreprises technologiques face à leurs créations. Les accusations d’abus de leur technologie ont mis en lumière le besoin urgent d’un cadre réglementaire pour contrôler l’utilisation des outils d’IA dans la désinformation.
Une technologie en pleine croissance
Malgré ces controverses, ElevenLabs continue de connaître une croissance fulgurante, avec des revenus annuels récurrents (ARR) atteignant 80 millions de dollars. Son succès attire des investisseurs de renom et soulève des préoccupations quant à l’impact de ses produits sur l’écosystème médiatique. La situation actuelle souligne l’importance d’une vigilance accrue autour des technologies d’IA, afin de prévenir leur détournement dans des opérations nuisibles.
En somme, l’affaire ElevenLabs illustre les défis éthiques et pratiques posés par les avancées rapides dans le domaine de l’IA. Les entreprises doivent naviguer entre l’innovation et la protection contre les abus, tout en étant conscientes des implications de leurs produits sur la société.