L’essor des technologies de gรฉnรฉration de voix par intelligence artificielle (IA) a suscitรฉ un intรฉrรชt croissant, tant pour leurs applications innovantes que pour leurs usages potentiellement malveillants.
L’un des cas rรฉcents les plus prรฉoccupants concerne ElevenLabs, une startup spรฉcialisรฉe dans la gรฉnรฉration vocale, dont les produits ont รฉtรฉ associรฉs ร une campagne de dรฉsinformation orchestrรฉe par des acteurs russes.
Lire aussi :
- ARC-AGI : Un pas en avant vers lโIA gรฉnรฉrale ou une remise en question des tests actuels ?
- En quoi le gรฉnรฉrateur dโimages Aurora pourrait-il rรฉvolutionner la crรฉation visuelle sur les rรฉseaux sociaux ?
Une campagne de dรฉsinformation
Selon un rapport de Recorded Future, une entreprise de renseignement sur les menaces, une opรฉration nommรฉe ยซ Operation Undercut ยป a รฉtรฉ mise en place pour miner le soutien de l’Europe envers l’Ukraine. Cette campagne a utilisรฉ des vidรฉos trompeuses et des faux reportages, agrรฉmentรฉs de voix gรฉnรฉrรฉes par IA, dont celles fournies par ElevenLabs. Ces vidรฉos visaient ร ternir l’image de responsables ukrainiens et ร saper la confiance du public europรฉen dans l’aide militaire destinรฉe ร l’Ukraine. L’une des vidรฉos les plus notables affirmait que ยซ mรชme les brouilleurs ne peuvent sauver les chars Abrams amรฉricains ยป, insinuant que l’aide militaire รฉtait vaine.
L’innovation auditive d’ElevenLabs : Un pas de gรฉant dans la crรฉation de contenu IA
L’impact de l’IA dans la dรฉsinformation
La capacitรฉ de l’IA ร produire rapidement des contenus audio en plusieurs langues a permis aux crรฉateurs de ces vidรฉos de diffuser leur message ร un public plus large. Les vidรฉos, dotรฉes de voix gรฉnรฉrรฉes qui ne prรฉsentaient pas d’accents รฉtrangers discernables, apparaissaient plus lรฉgitimes que les enregistrements audio rรฉalisรฉs par de vraies personnes. En soumettant ces clips au classificateur vocal d’ElevenLabs, les chercheurs de Recorded Future ont pu confirmer l’utilisation de leur technologie dans ces productions trompeuses.
Rรฉactions et consรฉquences
Face ร ces rรฉvรฉlations, la rรฉaction d’ElevenLabs a รฉtรฉ de renforcer ses mesures de sรฉcuritรฉ. Bien que la sociรฉtรฉ interdise ยซ l’imitation non autorisรฉe, nuisible ou trompeuse ยป, la nature des outils qu’elle fournit soulรจve des questions sur la responsabilitรฉ des entreprises technologiques face ร leurs crรฉations. Les accusations d’abus de leur technologie ont mis en lumiรจre le besoin urgent d’un cadre rรฉglementaire pour contrรดler l’utilisation des outils d’IA dans la dรฉsinformation.
Une technologie en pleine croissance
Malgrรฉ ces controverses, ElevenLabs continue de connaรฎtre une croissance fulgurante, avec des revenus annuels rรฉcurrents (ARR) atteignant 80 millions de dollars. Son succรจs attire des investisseurs de renom et soulรจve des prรฉoccupations quant ร l’impact de ses produits sur l’รฉcosystรจme mรฉdiatique. La situation actuelle souligne l’importance d’une vigilance accrue autour des technologies d’IA, afin de prรฉvenir leur dรฉtournement dans des opรฉrations nuisibles.
En somme, l’affaire ElevenLabs illustre les dรฉfis รฉthiques et pratiques posรฉs par les avancรฉes rapides dans le domaine de l’IA. Les entreprises doivent naviguer entre l’innovation et la protection contre les abus, tout en รฉtant conscientes des implications de leurs produits sur la sociรฉtรฉ.