La célèbre agence de presse indienne Asian News International (ANI) a lancé une action en justice contre OpenAI, accusant la société d’avoir utilisé illégalement son contenu pour former ses modèles d’IA.
Cette affaire pourrait marquer un tournant dans l’utilisation des contenus protégés par le droit d’auteur en Inde, pays le plus peuplé au monde.
Lire aussi :
- Comment Juna.ai révolutionne-t-elle les industries lourdes grâce à l’intelligence artificielle ?
- Bluesky pourra-t-il maintenir son identité unique face à l’afflux massif de nouveaux utilisateurs ?
Une accusation de violation de droits d’auteur
Le litige repose sur l’utilisation présumée des articles et des informations d’ANI par OpenAI pour entraîner ChatGPT, son modèle d’intelligence artificielle. L’agence accuse également ChatGPT d’avoir généré de fausses informations attribuées à tort à ANI, mettant en péril sa crédibilité. Lors de l’audience de mardi, la Haute Cour de Delhi a délivré une assignation à OpenAI tout en refusant une injonction immédiate, estimant que le dossier nécessitait un examen approfondi en raison de sa complexité.
Le porte-parole d’OpenAI a affirmé que la société collaborait activement avec des organisations médiatiques du monde entier pour établir des partenariats constructifs et éviter de telles situations. Cependant, ANI estime que la simple mise à disposition publique de ses contenus ne confère pas à OpenAI le droit de les exploiter pour ses systèmes.
Des enjeux juridiques internationaux
Cette affaire s’inscrit dans une tendance mondiale où de nombreux créateurs de contenus se mobilisent contre l’usage non autorisé de leurs œuvres par les entreprises d’IA. OpenAI fait déjà face à plus d’une douzaine de procès similaires aux États-Unis, deux au Canada et un en Allemagne. L’équipe juridique d’OpenAI a soutenu que les lois sur le droit d’auteur ne protègent pas les faits bruts et que les sites peuvent se retirer de la collecte de données de ChatGPT. Cependant, ANI conteste ces arguments en mettant en avant les risques de désinformation, notamment des interviews fictives attribuées à des personnalités publiques comme Rahul Gandhi, un dirigeant politique de l’opposition indienne.
Des risques pour la réputation et la confiance publique
ANI insiste sur le fait que les contenus générés de manière erronée par ChatGPT peuvent gravement nuire à sa réputation. La diffusion de fausses informations, qualifiée de “hallucinations” par les experts en IA, pourrait entraîner des troubles publics et ternir la fiabilité de l’agence.
La Haute Cour de Delhi prévoit d’examiner les implications techniques et juridiques de cette affaire, en nommant un expert indépendant pour conseiller sur les questions de droits d’auteur liées aux modèles d’IA. La prochaine audience, prévue en janvier, devrait approfondir ces questions critiques.
Pourquoi Elon Musk accuse-t-il OpenAI d’avoir trahi sa mission initiale et d’avantager Microsoft ?
Une affaire qui pourrait redéfinir les pratiques d’IA
Alors que les entreprises d’intelligence artificielle sont confrontées à une surveillance accrue, cette affaire pourrait établir un précédent en Inde. Elle met en lumière la nécessité d’un cadre juridique clair pour encadrer l’utilisation des contenus protégés par le droit d’auteur dans le développement des technologies d’IA, tout en garantissant la protection de la réputation des organisations médiatiques.