La cรฉlรจbre agence de presse indienne Asian News International (ANI) a lancรฉ une action en justice contre OpenAI, accusant la sociรฉtรฉ dโavoir utilisรฉ illรฉgalement son contenu pour former ses modรจles dโIA.
Cette affaire pourrait marquer un tournant dans lโutilisation des contenus protรฉgรฉs par le droit dโauteur en Inde, pays le plus peuplรฉ au monde.
Lire aussi :
- Comment Juna.ai rรฉvolutionne-t-elle les industries lourdes grรขce ร lโintelligence artificielle ?
- Bluesky pourra-t-il maintenir son identitรฉ unique face ร lโafflux massif de nouveaux utilisateurs ?
Une accusation de violation de droits d’auteur
Le litige repose sur lโutilisation prรฉsumรฉe des articles et des informations dโANI par OpenAI pour entraรฎner ChatGPT, son modรจle dโintelligence artificielle. Lโagence accuse รฉgalement ChatGPT dโavoir gรฉnรฉrรฉ de fausses informations attribuรฉes ร tort ร ANI, mettant en pรฉril sa crรฉdibilitรฉ. Lors de lโaudience de mardi, la Haute Cour de Delhi a dรฉlivrรฉ une assignation ร OpenAI tout en refusant une injonction immรฉdiate, estimant que le dossier nรฉcessitait un examen approfondi en raison de sa complexitรฉ.
Le porte-parole dโOpenAI a affirmรฉ que la sociรฉtรฉ collaborait activement avec des organisations mรฉdiatiques du monde entier pour รฉtablir des partenariats constructifs et รฉviter de telles situations. Cependant, ANI estime que la simple mise ร disposition publique de ses contenus ne confรจre pas ร OpenAI le droit de les exploiter pour ses systรจmes.
Des enjeux juridiques internationaux
Cette affaire sโinscrit dans une tendance mondiale oรน de nombreux crรฉateurs de contenus se mobilisent contre lโusage non autorisรฉ de leurs ลuvres par les entreprises dโIA. OpenAI fait dรฉjร face ร plus dโune douzaine de procรจs similaires aux รtats-Unis, deux au Canada et un en Allemagne. Lโรฉquipe juridique dโOpenAI a soutenu que les lois sur le droit dโauteur ne protรจgent pas les faits bruts et que les sites peuvent se retirer de la collecte de donnรฉes de ChatGPT. Cependant, ANI conteste ces arguments en mettant en avant les risques de dรฉsinformation, notamment des interviews fictives attribuรฉes ร des personnalitรฉs publiques comme Rahul Gandhi, un dirigeant politique de lโopposition indienne.
Des risques pour la rรฉputation et la confiance publique
ANI insiste sur le fait que les contenus gรฉnรฉrรฉs de maniรจre erronรฉe par ChatGPT peuvent gravement nuire ร sa rรฉputation. La diffusion de fausses informations, qualifiรฉe de “hallucinations” par les experts en IA, pourrait entraรฎner des troubles publics et ternir la fiabilitรฉ de lโagence.
La Haute Cour de Delhi prรฉvoit dโexaminer les implications techniques et juridiques de cette affaire, en nommant un expert indรฉpendant pour conseiller sur les questions de droits dโauteur liรฉes aux modรจles dโIA. La prochaine audience, prรฉvue en janvier, devrait approfondir ces questions critiques.
Une affaire qui pourrait redรฉfinir les pratiques dโIA
Alors que les entreprises dโintelligence artificielle sont confrontรฉes ร une surveillance accrue, cette affaire pourrait รฉtablir un prรฉcรฉdent en Inde. Elle met en lumiรจre la nรฉcessitรฉ dโun cadre juridique clair pour encadrer lโutilisation des contenus protรฉgรฉs par le droit dโauteur dans le dรฉveloppement des technologies dโIA, tout en garantissant la protection de la rรฉputation des organisations mรฉdiatiques.