Le 15 avril dernier, Lucia Guérin-Dubrana a participé au colloque OFIS 2025 sur le thème : IA générative et Intégrité scientifique à l’Institut de Physique du Globe – Paris.
Ce colloque, organisé par l’Office Français de l’Intégrité Scientifique (OFIS), a réuni chercheurs, philosophes et experts en éthique autour d’un thème central : comment l’intelligence artificielle générative (IAG) transforme les pratiques de recherche et questionne les principes fondamentaux d’intégrité scientifique.
Des outils puissants mais ambivalents
Les modèles génératifs (ChatGPT, BLOOM, DALL·E, etc.) sont désormais capables de produire des textes, des images ou des programmes de qualité. Leur usage s’étend aux domaines scientifiques, où ils permettent de modéliser des systèmes complexes, générer des hypothèses ou interpréter des données. L’IAG devient ainsi un « co-scientifique » potentiel. Des exemples frappants incluent l’identification de nouvelles équations en mécanique des fluides ou l’analyse de 20 000 gènes en quelques jours grâce à des architectures profondes. Mais le langage de IAG, n’a rien à voir avec un le langage humain construit. L’IAG ne reconnaît pas le vrai du faux et les résultats obtenus ne sont pas reproductibles, car souvent issus d’une ‘’boîte noire’’.
Intégrité scientifique : le nouveau défi
Face à ces évolutions, les institutions ont adapté leurs codes de conduite : le recours à l’IA générative doit être transparent, traçable et déclaré. L’usage non déclaré est désormais reconnu comme un manquement à l’intégrité scientifique, au même titre que la falsification ou le plagiat. Le Code européen de l’intégrité scientifique (révisé en 2023) intègre explicitement ces principes à trois niveaux : les procédures de recherche, la rédaction scientifique et l’évaluation par les pairs.
Questions de responsabilité et de mérite
Le colloque a soulevé plusieurs dilemmes : le chercheur reste-t-il responsable d’un contenu généré en partie par l’IA ? Peut-il prétendre à un prix ou à une reconnaissance pour un travail « co-produit » ? À qui revient la découverte si elle est issue d’une IA nourrie par des bases de données tierces ? La réponse dominante reste que le contrôle humain est indispensable et que l’IA doit être considérée comme un outil, non un auteur.
Risques accrus dans l’écosystème scientifique
Dans un contexte d’augmentation exponentielle du nombre de publication depuis la fin du XXème siècle (de 1 million en 1980 à 8 millions en 2025), l’IAG favorise des pratiques douteuses: usage dissimulé de l’IA pour rédiger ou relire, citations inventées, “paper mills” produisant des articles frauduleux. Des études révèlent déjà des traces d’IA dans les réponses des reviewers.
Vers des IA plus éthiques, locales et frugales
Le colloque plaide pour des IA “responsables” : modèles open source, jeux de données transparents, respect des droits d’auteur et impact environnemental réduit. L’exemple de Pleias, start-up française développant ScholasticAI pour l’exploration bibliographique, illustre cette volonté de créer des IA au service de la science, et non de la remplacer.
Contact:
Lucia Guérin-Dubrana – lucia.guerin@agro-bordeaux.fr