Sciences

Une étude mondiale dévoile une fraude à grande échelle dans l’édition scientifique en mathématiques

Une étude mondiale dévoile une fraude à grande échelle dans l’édition scientifique en mathématiques

Un groupe international de chercheurs tire la sonnette d’alarme : dans les mathématiques, des pratiques frauduleuses se sont installées et prospèrent, nourries par la course aux indicateurs (facteurs d’impact, classements, scores de citations). Leur enquête, coordonnée par la mathématicienne Ilka Agricola (Université de Marburg) pour la DMV et l’IMU, détaille comment ces dérives minent la qualité de la recherche et propose des voies de sortie.

Pourquoi les indicateurs ont pris le pouvoir

Pendant des années, la valeur d’un article ou d’un chercheur a été confondue avec la valeur d’un chiffre. Publier souvent, être beaucoup cité, viser des revues au prestige élevé : ces objectifs, simples à mesurer mais pauvres en sens, ont progressivement remplacé l’évaluation attentive du contenu scientifique.

Des chiffres privés, des méthodes opaques

La plupart de ces métriques proviennent d’entreprises commerciales. Leurs algorithmes sont fermés, leurs critères flous, et la communauté scientifique n’a quasiment aucun contrôle sur la façon dont ces scores sont produits, agrégés et promus. Pourtant, ces nombres guident des décisions majeures : financement, recrutements, promotions, voire stratégie institutionnelle.

Des incitations qui poussent aux dérives

Lorsque la réputation chiffrée devient une monnaie d’échange, un marché parallèle émerge. Des intermédiaires vendent des services pour « améliorer » des profils : rédaction d’articles prêts à signer, boost de citations, optimisation artificielle de classements. Les universités, elles, y trouvent parfois un intérêt : de meilleurs rangs attirent des fonds, des étudiants et des partenariats.

Ce que révèle l’enquête internationale

L’équipe mandatée par la DMV et l’IMU a mis en évidence une fraude coordonnée, étalée sur plusieurs années, exploitant systématiquement les failles du système éditorial et des métriques.

Des signaux d’alerte difficilement contestables

  • Un grand fournisseur d’indicateurs, Clarivate, a un temps désigné comme « champion » mondial en mathématiques une université taïwanaise… qui n’avait même pas de département de mathématiques.
  • Des méga‑revues acceptent un volume massif d’articles dès lors que les auteurs paient des frais, produisant à elles seules plus de contenus que l’ensemble des revues de mathématiques reconnues et exigeantes.
  • Des courtiers anonymes vendent des paquets de citations, des articles « clés en main » et des métriques arrangées, transformant la publication scientifique en marché.

Conséquences pour la discipline

La logique quantitative génère un déluge d’articles conçus pour alimenter les indicateurs plutôt que la connaissance.

Qualité en berne, lecture en chute

Beaucoup de textes ne sont presque jamais lus, accumulent des erreurs ou n’apportent aucun résultat substantiel. L’abondance masque la rareté des contributions réellement novatrices et sature la littérature.

Confiance fragilisée et recherche ralentit

Quand il devient difficile de distinguer le solide du douteux, la confiance s’effrite. Même les mathématiciens peinent à savoir sur quels résultats s’appuyer pour faire avancer leurs travaux. Des responsables scientifiques, comme le Secrétaire général de l’IMU, avertissent que cette confusion est dangereuse pour la science et la société. La DMV, de son côté, appelle à un changement de système.

Changer de cap : des pistes concrètes

L’étude ne se contente pas d’alerter : elle propose des recommandations pour réorienter l’édition scientifique en mathématiques.

Recentrer l’évaluation sur le contenu

  • Valoriser les rapports d’évaluation qualitatifs plutôt que les scores.
  • Récompenser la rigueur, la reproductibilité, le partage des données et des preuves.
  • Étendre les revues ouvertes et les processus de relecture transparents.

Rendre les métriques transparentes et gouvernées par les scientifiques

  • Exiger des méthodes publiques, auditables, et des définitions claires.
  • Placer la supervision des indicateurs sous gouvernance académique et non commerciale.
  • Proscrire l’usage mécanique du facteur d’impact pour évaluer individus et laboratoires.

Responsabiliser institutions et financeurs

  • Adapter les politiques de recrutement et d’avancement pour réduire la pression à la quantité.
  • Favoriser des évaluations holistiques intégrant enseignement, service à la communauté, logiciels, bases de données, et contributions à long terme.
  • Mettre fin aux incitations qui récompensent les publications de faible qualité.

Rôle moteur des sociétés savantes

Des organisations comme la DMV et l’IMU peuvent fixer des normes, soutenir des listes blanches de revues fiables, former les jeunes chercheurs à l’éthique éditoriale et intervenir publiquement quand des dérives menacent l’intégrité de la discipline.

D’où viennent ces conclusions ?

Le travail est décrit dans un préprint rendu public sur arXiv puis approfondi dans les Notices of the American Mathematical Society. Référence : « How to Fight Fraudulent Publishing in the Mathematical Sciences: Joint Recommendations of the IMU and the ICIAM », par Ilka Agricola, Lynn Heller, Wil Schilders, Moritz Schubotz, Peter Taylor et Luis Vega, 11 septembre 2025. DOI : 10.48550/arXiv.2509.09877.

FAQ — Questions fréquentes

Comment un chercheur peut-il repérer une revue douteuse ?

Vérifiez la composition du comité éditorial, la clarté des frais et des délais de décision, la présence dans des index reconnus, et la qualité des articles déjà publiés. Méfiez-vous des sollicitations massives, des promesses de publication ultra‑rapide et des politiques de relecture opaques.

Que peuvent faire concrètement les laboratoires dès maintenant ?

Adopter des chartes d’évaluation sans métriques simplistes, instaurer des comités de lecture internes pour les dossiers, et reconnaître les contributions non textuelles (logiciels, bases de données, réplications).

Existe-t-il des alternatives crédibles aux facteurs d’impact ?

Oui : évaluations qualitatives par des pairs, indicateurs de réplicabilité, mesures d’ouverture (données, code), et descriptions narratives des apports réels. L’essentiel est d’éviter un score unique et de combiner plusieurs évidences.

Les étudiants et le public sont-ils affectés ?

Indirectement, oui. La diffusion de résultats peu fiables peut entrer dans les cours, les médias et l’élaboration de politiques publiques. Cela complique la vulgarisation et peut entamer la confiance envers la recherche.

Les méga‑revues sont-elles toutes à éviter ?

Non. Certaines maintiennent des normes élevées. Le problème n’est pas la taille mais le processus éditorial : transparence, relecture exigeante, gestion des conflits d’intérêts et clarté des pratiques de correction et de rétractation.

Quitter la version mobile