Dans le monde de la recherche, la pression à multiplier les articles est telle que des revues dites « prédatrices » ont émergé en profitant de la concurrence entre scientifiques. Elles privilégient la rapidité et les faibles coûts à la rigueur scientifique, et sont symptomatiques des failles d’un système d’éditions savantes particulièrement lucratif.
Dans l’écosystème de l’édition scientifique, la frontière entre revues légitimes et revues prédatrices — des revues créées de toutes pièces, dépourvues de pratiques rigoureuses de révision par les pair·e·s et prêtes à publier le plus d’articles possible tant qu’elles sont payées pour le faire — n’est pas si claire.
« Une revue prédatrice, ce n’est pas noir ou blanc, explique le conseiller principal en recherche de l’organisme québécois à but non lucratif dédié à la diffusion de la recherche Consortium Érudit, Simon Van Bellen. Une revue peut avoir de bonnes pratiques, par exemple pour ce qui est de l’indexation des métadonnées, mais pas forcément pour la révision par les pairs, ou inversement. »
Toutes les revues scientifiques commerciales, même celles considérées comme reconnues, telles que celles des groupes Elsevier ou Springer Nature, se situent « à la frontière de la prédation », ajoute le professeur titulaire à l’École de bibliothéconomie et des sciences de l’information de l’Université de Montréal (UdeM) Vincent Larivière. « Elles se situent au croisement d’un conflit de valeurs, entre celles de la communauté scientifique et celles de l’espace économique », précise-t-il.
| D’où vient le terme revues prédatrices ? Le terme revues prédatrices a été introduit pour la première fois en 2012 par le bibliothécaire à l’Université du Colorado Jeffrey Beall, sur son blogue. Il l’utilise pour désigner les revues qui imitent les codes de l’édition scientifique sans en respecter les normes, popularisant l’expression avec sa « Beall’s List », une ancienne liste de revues potentiellement prédatrices. |
Changement de paradigme
L’arrivée d’Internet a marqué un point de bascule dans le modèle de la diffusion de la recherche. Avant les années 2000, le public payait pour accéder à des articles dans les grandes revues. Aujourd’hui, ce sont les scientifiques qui paient pour être publiés.
Cette démocratisation de la recherche profite aux géants de l’édition. En 2024, The Economist rapportait que certaines maisons d’édition affichaient des marges de profit comprises entre 30 % et 40 %. Pourtant, le système repose sur le travail de recherche de la communauté scientifique, financé en grande partie par des fonds publics, quand il ne l’est pas entièrement par les scientifiques eux-mêmes.
La prolifération des revues prédatrices représente à la fois le fruit de ce système dicté par les décisions des grands groupes reconnus, notamment celle de faire payer les scientifiques pour être publié, mais également une aubaine pour eux.
« La démonisation [de la part de ces grands groupes] des revues prédatrices, en partie faite à juste valeur, fait l’affaire de ces gros conglomérats-là : ça fait moins de joueurs légitimes sur le marché, poursuit M. Larivière. Une compagnie comme Elsevier a, dans le fond, le même but ultime qu’une revue prédatrice, c’est-à-dire faire de l’argent. » La prédation dans l’édition scientifique peut se manifester de diverses manières, certaines étant moins préoccupantes que d’autres. Les grandes maisons d’édition, par exemple, ne menacent pas autant la crédibilité de la recherche, puisqu’elles assurent quand même une véritable évaluation par les pair·e·s.
Prédation inégale
Même si l’enjeu des revues prédatrices concerne l’ensemble des disciplines, certaines sont plus visées que d’autres, comme le domaine de la santé.
« Le domaine de la santé, au sens large, est probablement le plus touché : c’est là que l’on trouve le plus grand volume de recherches à l’échelle mondiale », souligne M. Larivière. À l’inverse, « les champs comme la philosophie ou l’histoire sont beaucoup moins ciblés, fait-il valoir. Ce sont des domaines où il n’y a pas d’argent, personne pour payer les frais de publication, alors que le secteur de la santé est extrêmement bien financé ».
Cette disparité, selon lui, illustre les dérives d’un système de publications scientifiques commerciales dans lequel « le fait de payer pour être publié engendre des effets pervers pour la communauté scientifique ».
« Publier ou mourir »
La carrière scientifique est une carrière concurrentielle. Elle repose en grande partie sur les publications qu’une personne est en mesure d’afficher. Plus cette personne publie, plus elle gagne en reconnaissance et en crédibilité, ce qui augmente ses chances d’obtenir des financements pour ses recherches.
Même si les scientifiques travaillent au sein d’universités et de diverses institutions de recherche, ils et elles jouissent d’une grande liberté : la liberté universitaire. La décision de publier dans une revue ou dans une autre leur revient entièrement. Les universités se contentent de les accompagner dans l’écosystème des publications savantes et, si nécessaire, de les aider à reconnaître les revues plus ou moins dignes de confiance. « Notre rôle est d’informer les chercheurs sur les risques qu’ils courent pour leur réputation, explique la directrice du service recherche et communication savante de l’UdeM, Maude Lethiecq-Normand. Il s’agit avant tout d’un enjeu personnel plutôt qu’institutionnel. »
Les deux jeunes doctorants en biologie à l’Université McGill Ben Rogers et Lewis Rhys privilégient les grandes revues reconnues pour lancer leur carrière. Leur constat demeure néanmoins sans appel. « Le taux d’abandon en début de carrière est alarmant, révèle M. Rhys. Beaucoup de nos collègues renoncent, écrasés par la pression de publier à tout prix ». M. Rogers, de son côté, avoue avoir lui-même abandonné une maîtrise par le passé, sous le poids de ces exigences, avant de retourner à la recherche.
Selon Mme Lethiecq-Normand, l’alternative à ce système commercial, qui se situe « à la frontière de la prédation », passe plutôt par le soutien au « modèle diamant », des revues savantes, comme la Coalition Publica ou le Réseau Circé, financées par des institutions publiques, où ni la communauté scientifique ni le grand public ne paient de frais.
| Mesurer la productivité de la recherche scientifique Les deux mesures de productivité des scientifiques, conçues par les grands groupes de l’édition savante, sont : – L’indice h : un indicateur attaché à chaque scientifique, combinant le nombre d’articles publiés et celui de citations reçues — quel que soit le prestige de la revue. Ce critère quantitatif a ses limites : il reflète davantage l’âge de la personne que la qualité de sa recherche : plus le scientifique a d’années de carrière, plus son indice « h » augmente. – Le facteur d’impact : un indicateur attaché à la notoriété des revues scientifiques. Les plus reconnues et citées sont ainsi considérées comme ayant le plus d’impact. Cette mesure aussi a ses limites : « ce facteur n’est pas très approprié pour évaluer la qualité de la recherche, il veut juste dire que tu as réussi à publier un article dans une revue qui est relativement souvent citée », souligne le conseiller principal en recherche au Consortium Érudit, Simon Van Bellen. |