Les revues Open Access aux pratiques douteuses représentent un défi croissant pour l’intégrité scientifique. Il est de plus en plus difficile de les identifier en raison de la diversification et de la sophistication de leurs pratiques (revues au comportement « prédateur », frauduleuses, aux services de piètre qualité…). Alors pourquoi ne pas utiliser l’intelligence artificielle pour tenter de les identifier ? C’est que que Han Zhuang et al. proposent dans leur étude récemment publiée dans Science Advances.
Les auteurs de l’étude ont développé une méthode basée sur l’IA pour détecter les « revues Open Access discutables », définies ici comme celles qui enfreignent les bonnes pratiques énoncées par le Directory of Open Access Journals (DOAJ).
L’IA a été entraînée sur une base de données comprenant 12 869 journaux identifiés comme légitimes (inclus dans le DOAJ) et 2 536 titres « discutables » retirés du DOAJ après enquête, en raison de violation des standards de qualité ou de pratiques douteuses. L’algorithme évalue plusieurs critères pour chaque journal : le contenu du site web (informations disponibles sur l’objectif du journal, son comité éditorial, sa politique open access ou éthique…), la conception du site web ainsi que des indicateurs bibliométriques (sur les articles publiés, les auteurs, les affiliations, les citations…).
Lorsque les auteurs de l’étude ont demandé à l’IA d’analyser plus de 15 000 journaux en libre accès de la base Unpaywall, celle-ci a identifié 1 437 journaux présentant des caractéristiques problématiques. L’analyse révèle que certains titres proviennent d’éditeurs établis, indiquant que le problème s’étend au-delà des éditeurs traditionnellement suspects. De plus, l’étude met en évidence une répartition géographique inégale : les auteurs des pays en développement, notamment d’Inde et d’Iran, publient davantage dans les journaux identifiés comme problématiques, avec près de 1% de leurs publications dans des journaux signalés comme « discutables ».
L’outil a toutefois commis un certain nombre d’erreurs. Parmi les 1 437 revues « discutables » identifiées, l’équipe a estimé qu’environ 345 d’entre elles avaient été signalées à tort. Il s’agissait en particulier de journaux arrêtés, de « book series » et de journaux de petites sociétés savantes ayant une présence web réduite.
Le niveau de sensibilité de l’outil peut être ajusté pour minimiser le nombre de journaux signalés à tort, mais dans ce cas, certains titres problématiques ne sont plus détectés. Les chercheurs recommandent donc une approche combinant automatisation et expertise humaine. L’IA permet un tri initial efficace sur de grands volumes, mais l’évaluation finale nécessite une validation experte.
Cet outil est disponible en ligne en version bêta fermée. Vous devrez donc fournir au minimum votre email et discuter avec l’équipe avant de pouvoir découvrir ce que leur outil a à dire sur vos revues préférées et les autres.
Sources :
- Han Zhuang et al. Estimating the predictability of questionable open-access journals, Science Advances, 27 août 2025, https://doi.org/10.1126/sciadv.adt2792
- Jeffrey Brainard, AI tool labels more than 1000 journals for ‘questionable,’ possibly shady practices, Science Insider, 27 août 2025, https://doi.org/10.1126/science.zbcpto0
- Miryam Naddaf, Hundreds of suspicious journals flagged by AI screening tool, Nature news, 29 août 2025, https://doi.org/10.1038/d41586-025-02782-6


