Après plus d’un an d’analyse, la taskforce de l’Union européenne dédiée à la protection des données a publié ses conclusions préliminaires sur la conformité de ChatGPT, le chatbot d’OpenAI, au RGPD.
Les principales questions juridiques, telles que la légalité et l’équité du traitement des données par OpenAI, restent non résolues. Cette incertitude expose OpenAI à des risques réglementaires majeurs, notamment des amendes pouvant atteindre 4% de son chiffre d’affaires annuel mondial en cas de violation confirmée du RGPD.
Lire aussi :
- Quelles sont les conséquences éthiques et légales pour OpenAI après le retrait de la voix controversée ressemblant à celle de Scarlett Johansson dans leur modèle GPT-4o ?
- Partenariat OpenAI-Reddit : OpenAI signe un accord pour utiliser les données de Reddit dans la formation de l’IA
Défis de l’application du RGPD
Les plaintes contre ChatGPT se multiplient, mais l’absence de directives claires des autorités européennes sur l’application du RGPD laisse OpenAI libre de continuer ses activités comme à l’habitude. Par exemple, une enquête en Pologne a été ouverte après une plainte accusant le chatbot d’inventer des informations sur un individu et de refuser de corriger les erreurs. En Italie, l’autorité de protection des données a temporairement interdit ChatGPT l’année dernière, poussant OpenAI à suspendre ses services dans le pays avant de les reprendre après avoir apporté des modifications exigées.
Risque et transparence des données personnelles
Le rapport de la taskforce souligne la nécessité pour ChatGPT de disposer d’une base légale valide pour chaque étape du traitement des données personnelles, de leur collecte à leur utilisation dans les réponses du chatbot. Les risques pour les droits des individus sont exacerbés par la collecte massive et automatisée des données sur internet, y compris des données sensibles comme les informations de santé et les opinions politiques. OpenAI doit démontrer que le traitement des données est nécessaire et justifié par des intérêts légitimes tout en permettant aux utilisateurs de s’opposer à ce traitement.
Obligations de transparence et équité
Le principe d’équité du RGPD impose qu’OpenAI ne puisse pas transférer les risques de confidentialité aux utilisateurs. Les utilisateurs doivent être clairement informés que leurs interactions avec ChatGPT peuvent être utilisées pour entraîner le modèle. De plus, OpenAI doit fournir des informations sur la fiabilité limitée des réponses générées par le chatbot et permettre aux utilisateurs de rectifier les informations personnelles incorrectes. La taskforce recommande également que des mesures techniques et des critères de collecte précis soient mis en place pour réduire l’impact sur la vie privée des individus.
Meta expérimente son chatbot IA sur WhatsApp, Instagram et Messenger en Inde et en Afrique
En conclusion, bien que la taskforce n’ait pas encore pris de décision définitive, les recommandations préliminaires mettent en lumière les défis complexes liés à la protection des données personnelles dans le contexte des modèles d’intelligence artificielle comme ChatGPT. OpenAI doit naviguer avec précaution pour respecter les régulations européennes et minimiser les risques juridiques associés.