Le procureur général du Texas, Ken Paxton, a annoncé l’ouverture d’une enquête visant Meta AI Studio et Character.AI, accusés de présenter leurs chatbots comme des outils de soutien psychologique.
Selon lui, ces plateformes utiliseraient des pratiques commerciales trompeuses en laissant croire aux jeunes utilisateurs qu’ils reçoivent un accompagnement thérapeutique légitime. Or, il ne s’agirait en réalité que de réponses génériques générées par l’IA, façonnées par la collecte de données personnelles. Paxton a rappelé que ces dérives pouvaient particulièrement affecter des enfants vulnérables, déjà en quête de repères émotionnels.
Lire aussi :
- Mise à jour de GPT-5 : OpenAI a-t-il enfin réussi à rendre son IA plus humaine et plus chaleureuse ?
- Duolingo face aux critiques : le PDG clarifie sa stratégie “AI-first” et répond aux critiques
Les limites des avertissements et la question de la protection des mineurs
Meta et Character.AI affirment clairement que leurs IA ne sont pas des professionnels de santé et incluent des disclaimers visibles pour rappeler leurs limites. Meta souligne que ses modèles redirigent les utilisateurs vers des spécialistes qualifiés en cas de besoin, tandis que Character.AI ajoute des avertissements renforcés pour les bots créés avec les termes “psychologue” ou “thérapeute”. Cependant, les experts notent que beaucoup d’enfants peuvent ignorer ces avertissements ou ne pas en saisir la portée. Des enquêtes récentes ont également révélé que certains chatbots interagissaient de manière inappropriée avec des mineurs, allant jusqu’à flirter avec eux.
Collecte de données et risques de publicité ciblée
Un autre point sensible concerne la collecte massive de données par ces plateformes. Selon le procureur du Texas, malgré leurs promesses de confidentialité, les termes d’utilisation indiquent que les conversations sont enregistrées, analysées et exploitées pour l’entraînement des modèles, mais aussi pour le ciblage publicitaire. Meta admet partager certaines données avec des tiers comme les moteurs de recherche pour “personnaliser les résultats”, ce qui, dans les faits, favorise la publicité ciblée. Character.AI, de son côté, suit les utilisateurs à travers TikTok, YouTube, Reddit ou encore Instagram, et commence à explorer des modèles publicitaires basés sur ces informations. Cette pratique soulève des inquiétudes, notamment au regard de la protection des adolescents.
Character.AI dévoile AvatarFX : Un modèle d’IA pour créer des chatbots animés réalistes
Un débat législatif relancé avec le projet KOSA
Cette enquête s’inscrit dans un contexte plus large, marqué par la réintroduction au Sénat américain du Kids Online Safety Act (KOSA). Cette loi vise à encadrer plus strictement la collecte et l’exploitation des données des mineurs, ainsi que l’accès aux contenus nuisibles. Si le texte bénéficie d’un large soutien bipartisan, il fait face à l’opposition des géants technologiques, qui craignent pour leur modèle économique basé sur la publicité. L’action intentée par le Texas pourrait donc accélérer la pression réglementaire sur Meta, Character.AI et d’autres acteurs de l’intelligence artificielle, afin de mieux protéger les enfants à l’ère numérique.