L’édition 2025 de l’ICLR, une conférence académique de premier plan sur l’intelligence artificielle, est au cœur d’une polémique.
Plusieurs laboratoires d’IA, dont Sakana, Intology et Autoscience, ont soumis des études générées par IA, soulevant une vague de critiques de la part des chercheurs et universitaires.
Lire aussi :
- Pavel Durov quitte la France malgré une enquête criminelle en cours sur Telegram
- Google devrait-il imposer des restrictions plus strictes à son IA pour éviter les abus liés aux droits d’auteur ?
Une appropriation contestée du processus académique
Alors que Sakana avait informé l’ICLR et obtenu l’accord des relecteurs avant de soumettre ses études, Intology et Autoscience ont omis cette étape, suscitant l’indignation de la communauté scientifique. Plusieurs chercheurs dénoncent une tentative de détourner le processus de relecture par les pairs à des fins marketing.
Prithviraj Ammanabrolu, professeur en informatique à l’UC San Diego, a critiqué cette pratique sur les réseaux sociaux :
« Toutes ces études scientifiques générées par IA utilisent des conférences à relecture par les pairs comme des bancs d’essai gratuits. Personne n’a donné son consentement pour ce travail non rémunéré. »
Le processus de relecture par les pairs est exigeant, impliquant un travail bénévole de plusieurs heures par étude. Avec l’explosion des soumissions, la charge de travail des chercheurs a considérablement augmenté. En 2024, la conférence NeurIPS a enregistré 17 491 soumissions, une hausse de 41 % par rapport à l’année précédente.
Un phénomène inquiétant dans la recherche scientifique
Le problème des textes générés par IA dans les publications scientifiques ne date pas d’hier. Une étude récente estime que 6,5 % à 16,9 % des articles soumis aux conférences d’IA en 2023 contiennent des passages rédigés par intelligence artificielle.
Cependant, le recours au peer review pour valider et promouvoir des technologies d’IA représente une évolution plus préoccupante. Intology, par exemple, a mis en avant les retours positifs reçus lors de l’ICLR pour prouver l’efficacité de son IA, au grand dam des chercheurs qui dénoncent une exploitation gratuite de leur travail.
Vers une régulation du processus d’évaluation des études IA ?
Face à cette dérive, certains experts appellent à une régulation plus stricte. Alexander Doria, co-fondateur de Pleias, plaide pour la création d’une agence spécialisée chargée d’évaluer les recherches générées par IA :
« L’évaluation doit être réalisée par des chercheurs rémunérés pour leur temps. L’académie ne doit pas être exploitée pour des validations gratuites de modèles d’IA. »
Même Sakana a reconnu les limites de son approche, admettant que ses propres modèles avaient commis des erreurs « embarrassantes » dans les citations et que seul un article sur trois aurait réellement satisfait aux standards d’acceptation d’une conférence.
L’affaire soulève une question cruciale : l’IA peut-elle produire des études scientifiques crédibles, ou ne s’agit-il que d’une tentative opportuniste de profiter du système académique ? L’avenir de la recherche et de la validation scientifique dans l’ère de l’IA reste incertain, mais une chose est sûre : les chercheurs ne comptent pas se laisser instrumentaliser sans réaction.