Une base de données récemment découverte révèle l’ampleur de l’usage de l’intelligence artificielle par la Chine pour renforcer son appareil de censure.
Ce système, basé sur un modèle de langage sophistiqué, serait capable de détecter automatiquement tout contenu jugé « sensible » par les autorités, bien au-delà des tabous traditionnels comme Tian’anmen.
Lire aussi :
- ChatGPT recrée le style Ghibli avec son générateur d’images IA : une prouesse artistique ou un danger pour le droit d’auteur ?
- Krisp révolutionne les appels vocaux : une solution IA une IA vous permettant de parler avec un accent américain lors de vos appels ?
Une IA entraînée à repérer la dissidence
La base de données, découverte par un chercheur en cybersécurité et analysée par TechCrunch, contient plus de 133 000 exemples de contenus que l’intelligence artificielle doit analyser. Ceux-ci incluent des plaintes contre la pauvreté rurale, des critiques envers des membres corrompus du Parti communiste chinois ou encore des allégations d’abus policiers. L’objectif ? Identifier tout discours pouvant susciter une contestation sociale ou politique.
Contrairement à la censure classique qui repose sur des mots-clés et des filtres manuels, cette nouvelle génération d’outils s’appuie sur un raisonnement linguistique avancé. Cela permet d’interpréter les nuances, les métaphores ou les références historiques, rendant la détection de critiques implicites bien plus efficace.
Un outil au service du contrôle de l’opinion publique
D’après les informations recueillies, cette IA n’a pas seulement vocation à bloquer les contenus sensibles. Elle servirait également à entraîner d’autres modèles chinois à mieux se conformer aux lignes idéologiques officielles. Dans le jargon des autorités, cette mission relève de la « gestion de l’opinion publique », un domaine étroitement surveillé par l’administration du cyberespace de Chine (CAC).
Certaines instructions données à l’IA rappellent fortement les requêtes qu’on pourrait adresser à ChatGPT : détecter toute mention d’actualités politiques, militaires ou sociales pouvant nuire à la stabilité. Des sujets comme la pollution, les scandales alimentaires, les conflits du travail ou la politique taïwanaise sont considérés comme prioritaires.
La censure à l’ère des LLM : plus discrète, plus redoutable
Si la censure numérique en Chine n’est pas nouvelle, l’utilisation d’IA génératives comme les LLM (modèles de langage de grande taille) représente un tournant. Ces outils permettent de traquer les opinions dissidentes même sous des formes très subtiles, comme les anecdotes ou les proverbes détournés. En analysant de larges volumes de données en continu, ces modèles deviennent de plus en plus performants à mesure qu’ils apprennent.
Selon Xiao Qiang, chercheur à l’université de Berkeley, ce système marque un renforcement sans précédent du contrôle étatique sur la parole publique : « Ce n’est plus seulement une question de filtrer des mots, mais de comprendre l’intention. »