Dans une affaire en cours entre Anthropic, la société de l’IA, et les éditeurs de musique, un avocat représentant la société a été contraint de présenter des excuses après que le chatbot Claude, alimenté par l’IA, ait halluciné une citation juridique incorrecte.
Cette erreur a été reconnue dans un document déposé devant un tribunal de Californie du Nord jeudi dernier.
Lire aussi :
- TikTok déploie de nouveaux outils d’accessibilité, dont le texte ALT généré par IA, pour améliorer l’expérience des utilisateurs.
- Comment Google Gemini facilite-t-il l’analyse et la génération de code grâce à son intégration GitHub ?
Une hallucination de Claude dans un contexte judiciaire
Le chatbot Claude, développé par Anthropic, a généré une citation erronée avec un “titre inexact et des auteurs incorrects”, selon les informations rapportées par Bloomberg. L’erreur a été détectée après qu’Anthropic ait effectué un contrôle manuel de la citation, mais il a échoué à repérer cette défaillance, ainsi que plusieurs autres erreurs résultant des hallucinations de Claude. L’IA avait, en effet, produit une citation d’un article fictif, ce qui a conduit les avocats de l’entreprise à se défendre en expliquant qu’il s’agissait d’une simple “erreur de citation honnête” et non d’une tentative délibérée de falsification.
Le rôle de Claude dans la bataille juridique avec les éditeurs de musique
Le malheureux incident s’inscrit dans un contexte plus large de tensions juridiques entre les géants de la technologie et les détenteurs de droits d’auteur. Cette erreur est survenue alors que les avocats représentant Universal Music Group et d’autres éditeurs de musique accusaient l’expert d’Anthropic, Olivia Chen, d’avoir utilisé Claude pour citer des articles fictifs dans son témoignage. Suite à ces accusations, le juge fédéral Susan van Keulen a ordonné à Anthropic de répondre à ces allégations, amplifiant ainsi la pression sur l’entreprise.
L’affaire fait partie d’un combat plus large autour de l’utilisation des œuvres protégées par des droits d’auteur pour la création d’outils d’IA générative. Ce type de contestation se multiplie alors que de nombreuses entreprises technologiques utilisent des œuvres protégées pour entraîner leurs modèles d’IA, sans toujours avoir l’autorisation des détenteurs de droits.
Un précédent qui met en lumière les défis de l’IA en droit
Ce n’est pas la première fois que l’utilisation de l’IA dans un cadre juridique entraîne des erreurs regrettables. Plus tôt cette semaine, un juge californien a critiqué deux cabinets d’avocats pour avoir soumis des “recherches générées par l’IA” fausses dans son tribunal. En janvier, un avocat australien a été pris en flagrant délit d’utilisation de ChatGPT pour préparer des documents judiciaires, ce qui a conduit à la production de citations erronées. Ces incidents soulignent les dangers potentiels de l’utilisation des IA dans des contextes juridiques, où la précision et la rigueur sont primordiales.