OpenAI, le créateur de ChatGPT, est à nouveau ciblé par une plainte en Europe.
Cette fois-ci, l’organisation de défense des droits à la vie privée Noyb soutient un Norvégien, Arve Hjalmar Holmen, qui a découvert avec stupeur que ChatGPT l’accusait à tort d’avoir tué deux de ses enfants et tenté de tuer le troisième. Des déclarations choquantes, totalement inventées, qui posent de sérieuses questions juridiques et éthiques.
La plainte repose sur le Règlement général sur la protection des données (RGPD), qui impose aux entreprises de garantir l’exactitude des données personnelles qu’elles traitent. Or, selon Noyb, OpenAI ne permet pas aux utilisateurs de corriger les fausses informations générées par ChatGPT, se contentant d’afficher un simple avertissement affirmant que le chatbot peut faire des erreurs.
Lire aussi :
- Prezent révolutionne la création de diapositives et lève 20M$ pour son expansion mondiale
- L’essor des études générées par IA remet-il en cause la fiabilité du peer review dans la recherche académique ?
Une dérive inquiétante de l’intelligence artificielle générative
Les hallucinations de l’IA, ces réponses inventées mais présentées comme crédibles, sont un problème bien connu dans les modèles comme ChatGPT. Mais lorsque ces erreurs concernent des données personnelles, le risque devient plus grave, allant jusqu’à nuire à la réputation des personnes concernées. Dans ce cas, l’IA mélangeait des éléments vrais (comme le nombre et le sexe des enfants de Holmen, ainsi que sa ville) avec une fiction tragique et diffamatoire.
Pour Noyb, cette situation illustre un manquement clair aux obligations du RGPD. « La loi est claire : les données personnelles doivent être exactes », a rappelé un avocat de Noyb. Le simple fait de masquer les erreurs ou de bloquer les réponses ne suffit pas à respecter les droits des individus.
Vers une régulation plus ferme des IA génératives ?
Malgré l’ampleur du problème, les autorités européennes ont été relativement lentes à réagir. Une plainte similaire déposée en Autriche en 2024 a été transférée à l’autorité irlandaise, où elle est toujours en attente de traitement. Noyb espère que la nouvelle plainte en Norvège permettra d’accélérer la prise de décision, d’autant plus qu’elle cible directement l’entité américaine d’OpenAI, plutôt que sa filiale européenne.
Le cas de Holmen n’est pas isolé. D’autres exemples d’allégations erronées générées par ChatGPT ont été signalés, y compris des accusations de corruption ou de pédophilie à l’encontre de personnalités publiques. Ces erreurs montrent la difficulté pour les utilisateurs d’obtenir justice face aux modèles opaques et centralisés.
En réaction, OpenAI a déclaré travailler à améliorer l’exactitude de ses modèles, tout en soulignant que la version responsable de cette erreur a depuis été remplacée. Mais Noyb prévient : le fait que le système ne produise plus l’erreur ne signifie pas que la donnée fautive a été supprimée ou désapprise.