Édition scientifique à l'ère de l'Open Access

Le déclassement de 82 revues du Web of Science suscite de vives discussions

Petit tremblement de terre dans le monde des bases de données bibliographiques et des revues scientifiques : Clarivate fait un grand ménage de printemps dans la liste des revues qu’elle indexe dans le Web of Science et en déclasse 82.

Ces 82 revues déclassées, dont beaucoup sont en Open Access, perdent par conséquent leur facteur d’impact. Certaines sortent de la liste car elles ont tout simplement arrêté de paraître. Mais le déclassement d’autres revues à fort facteur d’impact et souvent accusées d’appartenir à des éditeurs prédateurs (par exemple International Journal of Environmental Research and Public Health IJERPH – de chez MDPI ou les revues d’Hindawi) fait l’objet de vives discussions parmi les éditeurs et chercheurs.

Comme le fait remarquer Paolo Crosetto, chercheur à l’INRAE, dans un fil de discussion twitter, c’est un problème pour les 2 parties :

  • Pour les éditeurs de ces revues, le risque est de voir diminuer le nombre de soumissions d’articles, à cause de la disparition du facteur d’impact si recherché (comme cela est arrivé à Oncotarget lorsqu’il a été déclassé du Web of Science), et par conséquent de perdre les revenus associés.
  • Pour les auteurs, le problème est l’impact négatif que pourrait avoir la perte de ce facteur d’impact sur les indicateurs bibliométriques de leur production scientifique, si ces derniers tiennent compte de ce fameux facteur d’impact.

Parallèlement, un article publié dans la revue JAMA revient sur le phénomène des méga-revues, ces revues en Gold Open Access qui publient plus de 2000 articles par an (comme IJERPH) et les problèmes qu’il engendre. On leur reproche, entre autres, un reviewing de mauvaise qualité, des pratiques peu intègres comme l’ajout par des éditeurs invités d’auto-citations sans en informer l’auteur principal, d’utiliser des reviewers inconnus dans les domaines qu’ils révisent et de renforcer, lorsqu’ils ont un facteur d’impact élevé, les travers de l’évaluation de la production scientifique.

Les deux sujets remettent une fois de plus sur le devant de la scène le problème de l’incitation très forte qu’ont les chercheurs à publier (le fameux paradigme “Publish or Perish”) et le fait que l’évaluation de leur travail repose en majorité sur cette production. De plus, cette évaluation est encore beaucoup trop souvent basée sur la qualité de la revue dans laquelle ils publient (malheureusement trop souvent réduite au facteur d’impact ou à ses dérivés) et non pas sur la qualité de leur recherche elle-même. Cette pratique est pourtant largement critiquée depuis plusieurs années. Tout cela participe à la multiplication de pratiques dites prédatrices de la part d’éditeurs peu scrupuleux souhaitant en tirer profit.

Contre ces revues prédatrices, une approche peut vous aider à y voir plus clair : l’approche du spectre dont nous vous parlions il y a presque un an dans ce billet. Vous pourrez ainsi moins facilement vous laisser tenter par des éditeurs douteux.

Print Friendly, PDF & Email