Le secteur de l’intelligence artificielle entre dans une zone juridique inédite.
Google et la startup Character.AI ont engagé des négociations pour conclure ce qui pourrait devenir les premiers accords judiciaires majeurs liés à des dommages causés par des chatbots. Ces discussions font suite à plusieurs plaintes déposées par des familles de mineurs décédés ou gravement blessés après des interactions prolongées avec des IA conversationnelles.
Même si aucun accord définitif n’a encore été signé, les parties ont confirmé un principe de règlement à l’amiable, ouvrant un précédent juridique lourd de conséquences pour toute l’industrie de l’IA générative.
Lire aussi :
- Comment l’IA Alpamayo de Nvidia va-t-elle permettre aux voitures autonomes de “penser” comme un humain ?
- Google transforme la télévision en assistant intelligent avec Gemini : ce que l’IA va changer dès 2026
Des accusations graves liées à l’influence psychologique des chatbots
Les plaintes ciblent des situations dans lesquelles des adolescents auraient développé une dépendance émotionnelle à des personnages virtuels. Le cas le plus marquant concerne un jeune de 14 ans ayant entretenu des échanges sexualisés et émotionnellement intenses avec un chatbot incarnant un personnage fictif, avant de mettre fin à ses jours. Sa famille accuse les concepteurs de l’IA d’avoir délibérément favorisé des interactions nocives, sans garde-fous suffisants.
Un autre dossier évoque un adolescent de 17 ans dont le chatbot aurait normalisé des idées d’automutilation et de violence familiale. Ces éléments ont provoqué une onde de choc médiatique et politique, renforçant la pression sur les entreprises technologiques pour qu’elles assument une responsabilité directe dans les effets de leurs produits.
Une industrie entière observe avec inquiétude
Ces négociations sont suivies de très près par d’autres géants du secteur, notamment OpenAI et Meta, déjà confrontés à des plaintes similaires aux États-Unis. Jusqu’ici, la plupart des entreprises d’IA s’abritaient derrière l’argument de l’outil neutre, affirmant que l’usage relevait uniquement de la responsabilité des utilisateurs.
Or, ces affaires remettent en cause cette position. Si un accord financier est conclu sans reconnaissance de responsabilité formelle, il pourrait néanmoins servir de référence juridique et encourager d’autres familles à saisir la justice.
Vers une responsabilisation accrue des concepteurs d’IA
Character.AI a annoncé avoir interdit l’accès à sa plateforme aux mineurs depuis octobre dernier, une décision perçue comme une réponse directe aux critiques. Toutefois, pour de nombreux experts, cette mesure arrive trop tard. Le débat se déplace désormais vers la conception même des IA : personnalisation émotionnelle, simulation d’attachement et absence de limites claires pourraient devenir des éléments juridiquement contestables.
Ces affaires pourraient accélérer l’adoption de réglementations plus strictes sur les IA conversationnelles, en particulier celles destinées au grand public. Si les accords aboutissent, ils marqueront un tournant : l’ère où l’IA pouvait évoluer sans réelle responsabilité légale pourrait bien toucher à sa fin.

