OpenAI a développé un outil capable de détecter les textes écrits par ChatGPT, ce qui pourrait potentiellement attraper les étudiants qui trichent en demandant à l’IA de rédiger leurs devoirs.
Cependant, selon The Wall Street Journal, l’entreprise hésite encore à le publier. Dans une déclaration fournie à TechCrunch, un porte-parole d’OpenAI a confirmé que la société recherche une méthode de filigrane textuel décrite dans l’article, mais adopte une approche délibérée en raison des complexités impliquées et de son impact probable sur l’écosystème au sens large, au-delà d’OpenAI.
Lire aussi :
- Comment cette désignation de concurrence pourrait-elle influencer les relations futures entre Microsoft et OpenAI ?
- Comment les projets de loi soutenus par OpenAI pourraient-ils influencer la réglementation et le développement de l’intelligence artificielle aux États-Unis ?
Les défis du filigrane textuel
Le porte-parole a indiqué que bien que la méthode de filigrane textuel soit prometteuse d’un point de vue technique, elle présente des risques importants. Ces risques incluent la possibilité que des acteurs malveillants contournent le système et l’impact potentiel disproportionné sur certains groupes, tels que les non-anglophones. Cette approche serait différente des efforts précédents de détection de texte généré par IA, qui ont souvent été inefficaces. OpenAI lui-même a fermé son précédent détecteur de texte IA l’année dernière en raison de son faible taux de précision.
Avec le filigrane textuel, OpenAI se concentrerait uniquement sur la détection des écrits de ChatGPT, et non sur les modèles d’autres entreprises. Cela se ferait en apportant de petites modifications à la manière dont ChatGPT sélectionne les mots, créant essentiellement un filigrane invisible dans l’écriture qui pourrait ensuite être détecté par un outil séparé.
Les limites et conséquences potentielles
Après la publication de l’article du Wall Street Journal, OpenAI a également mis à jour un article de blog de mai sur ses recherches autour de la détection de contenu généré par IA. La mise à jour indique que le filigrane textuel s’est avéré très précis et même efficace contre les falsifications localisées, telles que le paraphrasage, mais moins robuste contre les falsifications globalisées, comme l’utilisation de systèmes de traduction, la reformulation avec un autre modèle génératif ou la demande au modèle d’insérer un caractère spécial entre chaque mot puis de supprimer ce caractère.
En conséquence, OpenAI écrit que cette méthode est triviale à contourner par des acteurs malveillants. La mise à jour d’OpenAI reflète également le point du porte-parole sur les non-anglophones, indiquant que le filigrane textuel pourrait stigmatiser l’utilisation de l’IA comme outil d’écriture utile pour les non-anglophones natifs.
Un développement à surveiller
La décision d’OpenAI de retarder la sortie de cet outil montre la complexité de l’implémentation d’une telle technologie. Bien que prometteuse, la méthode de filigrane textuel doit surmonter de nombreux obstacles avant de pouvoir être largement adoptée. OpenAI poursuit ses recherches et évalue d’autres alternatives pour garantir une solution efficace et équitable. Le débat sur la manière de détecter les textes générés par IA est loin d’être terminé, et les développements futurs seront cruciaux pour l’avenir de l’éducation et de l’intégrité académique.