L’intelligence artificielle s’infiltre progressivement dans toutes les sphères professionnelles, y compris le secteur juridique.
Mais cette automatisation ne va pas sans risques. La Haute Cour d’Angleterre et du Pays de Galles vient de rendre une décision retentissante : les avocats utilisant des citations erronées générées par l’IA dans leurs dossiers judiciaires pourraient désormais faire face à des sanctions sévères. Un avertissement clair qui marque un tournant dans la régulation de l’usage des outils d’IA par les professionnels du droit.
Lire aussi :
- Snapchat débarque sur votre poignet : une nouveauté qui change la donne pour les messages instantanés
- Pourquoi Anthropic coupe brutalement les ponts avec une startup courtisée par OpenAI ?
Des outils puissants… mais dangereux s’ils sont mal utilisés
Des plateformes comme ChatGPT ont démontré leur capacité à générer rapidement des textes bien structurés et à produire des références juridiques plausibles. Le problème ? Ces références peuvent être totalement fictives. La juge Victoria Sharp rappelle que l’IA générative « ne permet pas de mener des recherches juridiques fiables ». Pire encore, elle peut présenter des informations fausses sous une forme convaincante, ce qui renforce le risque de les intégrer dans des procédures officielles sans vérification préalable.
Et si appeler votre IA un collègue était la pire erreur à faire ?
Deux affaires exemplaires pointent la dérive
Pour appuyer sa décision, la juge Sharp s’est appuyée sur deux affaires récentes. Dans la première, un avocat a présenté 45 citations devant le tribunal, dont 18 se sont avérées purement inventées. Les autres contenaient des erreurs ou étaient sans rapport avec le fond du litige. Dans un second dossier, un autre avocat a cité cinq cas fictifs pour défendre un client expulsé de son logement. Bien qu’il ait nié avoir utilisé l’IA, il a admis que les citations pourraient provenir de résumés en ligne générés par des outils comme Google ou Safari.
Une vigilance obligatoire pour les professionnels du droit
Ce rappel à l’ordre de la justice britannique n’a pas pour but d’interdire l’usage de l’IA, mais d’en encadrer l’utilisation. Les avocats doivent désormais s’assurer que toute référence utilisée dans leurs dossiers provient de sources juridiques officielles. La juge a souligné que les manquements à cette obligation pourraient mener à des sanctions allant de la réprimande publique à des poursuites pour outrage, voire à un signalement à la police. Le message est clair : l’exactitude prime sur la rapidité.
Chatbots IA : quand ils préfèrent vous flatter plutôt que vous dire la vérité
L’avenir de l’IA dans le droit dépendra de la responsabilité humaine
Ce jugement britannique pourrait inspirer d’autres juridictions à travers le monde. Il pose une limite essentielle : l’IA peut être un outil, mais jamais une autorité. C’est aux avocats qu’il revient de valider chaque donnée utilisée. En encadrant strictement cette pratique, la Haute Cour souhaite préserver l’intégrité du système judiciaire, tout en reconnaissant les potentiels de l’IA dans le secteur.