Jacques Balthazart: « Publier est devenu le but premier de la recherche scientifique » (grand entretien)
Il aurait pu titrer «Comment la recherche est devenue un gigantesque business», car c’est bien de pressions exercées sur les scientifiques pour publier toujours plus, plus vite et dans les revues les plus prestigieuses dont il est question dans le très sobrement intitulé Cinquante ans d’évolution de la recherche en biologie: progrès et régressions (1).
Formé à la zoologie à l’ULiège et spécialisé en neuroendocrinologie du comportement, Jacques Balthazart a publié plus de cinq cents articles et signé plusieurs ouvrages traitant des différences sexuelles de comportement entre hommes et femmes. Ses travaux ont toujours été guidés par la curiosité. Une soif de découverte qu’il a pu assouvir grâce aux incroyables développements technologiques de ces dernières décennies, à la liberté qui lui était accordée et à des budgets qui, à l’époque, ne manquaient pas. Pour un chercheur qui débute aujourd’hui, le contexte est nettement moins favorable: la recherche est devenue un secteur compétitif comme un autre.
Auteur prolifique, c’est surtout en tant que coéditeur et membre de plusieurs comités de rédaction de revues, dont Hormones and Behavior et Frontiers in Neuroendocrinology, qu’il a pris conscience de la monétisation croissante de la recherche et de la prolifération de revues scientifiques peu regardantes sur la qualité des études.
Pour le chercheur, ne rien publier pendant un moment signifie un trou dans son CV.
Sans réellement tirer à boulets rouges, vous portez un regard critique sur l’évolution du monde de la recherche, dont vous faites toujours partie. Vous pointez notamment son sous-financement…
Pour comprendre ce qui a changé, il faut se rendre compte des grands bouleversements qui ont secoué la recherche scientifique ces dernières décennies. Les techniques, par exemple, ont évolué de façon invraisemblable. Les outils sont devenus extrêmement sophistiqués. Tout a été miniaturisé, automatisé. L’informatique a remplacé une série de métiers techniques qui contribuaient au fonctionnement du laboratoire. Ce que nous sommes capables de réaliser aujourd’hui nous serait apparu, il y a cinquante ans, comme de la science-fiction.
D’un autre côté, les contraintes se sont multipliées de façon exponentielle, notamment sur le plan administratif. Cela vaut autant pour les demandes de financement que pour les rapports et les protocoles. Tout est minutieusement contrôlé. C’est une évolution nécessaire et positive, bien entendu, mais cela exige énormément de temps et de moyens, qui ne sont pas consacrés à autre chose.
Plus fondamentalement, c’est le mode d’attribution des subsides qui a changé…
Quand j’ai commencé à faire de la recherche, mon laboratoire était essentiellement financé par l’université à laquelle j’appartenais. Les demandes étaient gérées par le chef de service. L’université recevait des subsides de la part de l’Etat belge, qu’elle redistribuait ensuite à tous les laboratoires du pays en fonction de certains critères.
Ces crédits étaient largement suffisants pour couvrir tous les frais de recherche. Au mois de décembre, on était pris d’une frénésie d’achats pour épuiser la totalité du budget. Ce n’était pas forcément de mauvais achats mais sur le principe, cela posait question. Fin des années 1970, début des années 1980, on a assisté à une réforme du financement des universités. Peu à peu, les sources se sont taries. On a commencé à subsidier les universités uniquement en fonction du nombre d’étudiants inscrits avec une enveloppe globale fermée. Une autre réforme devait organiser le financement de la recherche mais elle n’a jamais vu le jour. Or, le nombre d’étudiants a augmenté de manière colossale, tout comme le nombre de chercheurs. A côté de cela, le coût de la recherche a été multiplié en raison des évolutions technologiques.
Ces différents facteurs et ce contexte de sous-financement ont fait naître une forme de compétition intense entre les chercheurs pour décrocher des subsides. D’autant qu’ils doivent à présent introduire leur demande à titre personnel. Ce n’est plus le rôle du chef de service. Le nombre de projets a explosé. La somme totale allouée à la recherche a été revue à la hausse mais pas suffisamment pour satisfaire toutes les demandes et faire face à l’inflation du prix du matériel. L’autre problème est que l’argent est distribué par plusieurs organes: en Belgique, il s’agit du FNRS (NDLR: Fonds de la recherche scientifique), du Fria (NDLR: Fonds pour la formation à la recherche dans l’industrie et dans l’agriculture), de la Région wallonne, de différentes fondations et, enfin, des universités.
Cette multiplicité de sources fait que vous vous retrouvez à introduire dix ou quinze demandes de crédits différentes au cours de l’année. C’est très chronophage. Si on ajoute à cela la rédaction de rapports d’activité, je dirais qu’on tourne autour des 25% du temps de travail du chercheur dédiés aux tâches administratives. On estime que les chercheurs en Europe dépensent l’équivalent de 1,4 milliard d’euros d’équivalent de temps de travail pour préparer des demandes de subvention au programme Horizon 2020, qui en distribue 5,5 milliards.
Et ce n’est pas fini: une fois la recherche terminée, encore faut-il en évaluer les résultats. Cela aussi représente un coût énorme tant en frais directs pour les organismes de financement qu’en temps pour les chercheurs.
Vous déplorez également une vision de plus en plus utilitariste de la science.
La manière dont on aborde la science est souvent plus proche de la recherche appliquée que de la recherche fondamentale, guidée par la simple curiosité. Aujourd’hui, on attend du chercheur qu’il trouve une solution à un problème qu’on lui soumet.
Je ne dis pas qu’il ne faut faire que de la recherche fondamentale, il faut aussi pouvoir l’appliquer aux problèmes de société sinon ces découvertes auraient peu d’intérêt. Mais les progrès quantiques de la connaissance sont souvent le résultat du hasard. Par exemple, la technique PCR, qui a servi au développement des tests Covid-19 et est aussi régulièrement utilisée pour d’autres manipulations dans la recherche, résulte d’une découverte inattendue faite lors de missions d’exploration de fonds marins.
Seul ce qui peut être exploité est aujourd’hui financé?
Majoritairement, oui. Heureusement, une partie de la recherche reste initiée par la curiosité. Le FNRS, qui n’est pas dans cette logique «top-down», où celui qui finance décide du sujet de la recherche, mais dans une approche «bottom-up», continue de soutenir des projets motivés par la soif de découverte. L’Europe, de son côté, a créé l’European Research Council pour subsidier des projets initiés par les chercheurs.
Mais ces trois dernières décennies, l’Europe a surtout financé des projets répondant à des appels d’offres sur des thèmes précis. Avec, pour conséquence, de focaliser l’argent sur quelques recherches et de laisser mourir ce qui se fait ailleurs.
Des éditeurs se sont spécialisés dans la publication d’articles scientifiques pouvant être consultés gratuitement. Pour le chercheur, c’est une belle vitrine?
On a assisté à une concentration des éditeurs de revues scientifiques, ce qui leur a donné un pouvoir financier colossal. Actuellement, trois ou quatre grosses maisons d’édition couvrent 80% ou 90% du domaine scientifique. Ce quasi-monopole a entraîné une augmentation du coût des publications et a rendu leur accès plus difficile. En réaction à ce phénomène, on a vu naître des maisons d’édition qui ne publient qu’en accès ouvert.
Les frais liés à la publication sont alors à charge de l’auteur, ou des auteurs, de l’étude. L’aspect positif de cette évolution est que tout un chacun peut dorénavant consulter des publications scientifiques sans devoir s’abonner à telle ou telle revue. L’aspect nettement moins positif, c’est que pour maximiser son profit, l’éditeur doit publier le plus d’études possible. Rapidement, certaines dérives sont apparues.
Vous faites allusion à ce que l’on appelle les «journaux prédateurs», ces publications douteuses dont la vocation est de soutirer de l’argent aux chercheurs?
Il existe aujourd’hui un nombre impressionnant de journaux en open access qui publient rapidement n’importe quel article scientifique. Pour l’auteur, les frais de publication avoisinent 2 000 à 3 000 euros. Dans le meilleur des cas, l’article est publié sur le Web mais aucune vérification sur la qualité ou la fiabilité de l’étude n’est effectuée. Dans le pire des cas, ils prennent l’argent et ne publient rien. Certains de ces journaux prédateurs sont clairement identifiés, d’autres sont plus borderline. Deux grands éditeurs sont actuellement dans le collimateur.
Le groupe Frontiers (NDLR: pour lequel il a édité un seul article et avec qui il ne collabore plus) possède 163 journaux et a publié 85 000 articles en 2021, en pleine crise sanitaire, en utilisant 202 000 chercheurs pour coordonner leur évaluation. MDPI, lui, a publié plus de 240 000 articles en 2021 dans 418 journaux récemment créés qui utilisent plus de 115 000 évaluateurs. Ces deux éditeurs assurent qu’il y a une évaluation par les pairs, mais ils n’offrent que très difficilement la possibilité de rejeter l’article s’il y a un problème. Les reviewers peuvent uniquement transmettre des demandes de modifications.
L’open access a tout de même quelques vertus: il a rendu la recherche médicale plus accessible, peut-être plus transparente aussi. Pour les médias non spécialisés, ce fut un précieux support pour informer sur le Covid-19…
Ça permet en effet à chacun d’avoir accès à des informations scientifiques. Même pour les chercheurs: le prix des journaux scientifiques est devenu si prohibitif que la plupart des universités ne sont plus en mesure d’acheter la bibliothèque complète ou de se payer tous les abonnements. C’est particulièrement important pour les chercheurs qui travaillent dans des pays émergents ou économiquement sous-développés.
D’autant que si on a évoqué les journaux prédateurs, d’autres journaux en open access sont tout à fait corrects. Et même de très grande qualité. L’autre aspect positif, c’est que les associations de malades peuvent aujourd’hui connaître l’état de la recherche sur les maladies qui les concernent. Avec une petite nuance tout de même lorsqu’il s’agit de recherche fondamentale, car les délais entre la découverte et son application sur les patients peuvent être très longs. Au risque de générer de faux espoirs.
La course à la publication est aussi liée à l’index de visibilité, sorte de classement des revues et des chercheurs. Comment cela fonctionne-t-il?
L’index de visibilité est lié à la bibliométrie: l’informatique a permis d’encoder tout ce qui est publié et tout ce qui est cité dans chacune de ces publications. On a donc commencé à créer des index de visibilité des journaux, dont le plus connu est le facteur d’impact.
On l’obtient en divisant le nombre de citations reçues par une revue par le nombre d’articles publiés par cette revue. L’index le plus commun se calcule sur une période de deux ans mais cela peut également être six mois ou cinq ans. Cette valeur d’indice devait permettre, à la base, de donner une certaine idée de la visibilité du journal.
Mais le système a été corrompu. Si vous publiez dans une revue qui a un facteur d’impact de cinq, dont les articles sont donc cités en moyenne cinq fois au cours des deux dernières années, c’est évidemment mieux que de publier dans une revue de facteur un, mais nettement moins bien qu’un facteur dix, vingt ou quarante. Petit à petit, on a commencé à considérer l’index de visibilité non plus tant comme un gage de qualité de la revue mais comme un gage de qualité de ce que produit le chercheur qui parvient à se faire publier dans cette revue. Le facteur d’impact a d’autres défauts. Avec cette méthode, on en vient à comparer des domaines totalement différents. La fréquence de citation dépendra notamment du nombre de chercheurs qui travaillent dans le domaine.
Un journal moyen de cancérologie, par exemple, peut avoir un impact de cinq qui monte jusqu’à soixante ou septante pour les plus prestigieux, tandis que le meilleur journal de zoologie restera bloqué à trois, vu qu’il y a nettement moins de zoologistes que de cancérologues. On constate par ailleurs que ce sont souvent trois ou quatre «super hits» qui font la popularité d’un journal, les autres n’étant pas, ou peu, cités. C’est un réel problème.
Une forme de compétition intense est née entre les chercheurs pour décrocher des subsides.
Pourquoi continuer à utiliser ce système s’il est peu fiable et non représentatif?
Je l’ai dit, la compétition pour obtenir des postes et des financements est féroce et, par ailleurs, on manque de temps pour évaluer toutes ces demandes de subsides. On a donc opté plus ou moins inconsciemment pour une solution simpliste qui consiste à ajouter chaque article de l’auteur, multiplié par son facteur d’impact et à utiliser ce total pour classer les auteurs.
C’est très pratique, mais ça ne donne aucune idée de la qualité de la recherche. La communauté scientifique est consciente de ces problèmes. Le FNRS vient d’ailleurs de signer la Déclaration de San Francisco sur l’évaluation de la recherche qui stipule qu’on ne doit plus tenir compte du facteur d’impact des journaux.
Dans un tel contexte, on comprend que les laboratoires soient tentés de solliciter les sociétés pharmaceutiques pour qu’elles soutiennent leurs projets. Quel impact cette collaboration peut-elle avoir sur l’indépendance des chercheurs?
On est au-delà de la tentation. Certaines universités n’hésitent pas à faire pression sur leurs chercheurs pour qu’ils collaborent avec des firmes commerciales. Cela leur permet de trouver de l’argent plus facilement. Le problème est que ces subsides sont liés à un objet de recherche assez précis et pour lequel un conflit d’intérêts peut potentiellement surgir.
Si vous découvrez, par exemple, que le médicament en cours de développement par la firme provoque des effets secondaires désagréables, cela peut vous mettre dans une position inconfortable. Autre désavantage: ces collaborations débouchent sur des brevets et ne font donc pas l’objet de publications. Or, pour le chercheur, ne rien publier pendant un moment signifie un trou dans le CV.
Dans votre ouvrage, on apprend que pour être publiés et cités plus vite et plus souvent, les chercheurs en viennent à fractionner leurs études. En quoi est-ce problématique?
De plus en plus d’études sont menées sur un nombre très limité de sujets pour pouvoir en publier un maximum dans les journaux à haut facteur d’impact. Si vous avez publié dans Science ou Nature et que vous faites une demande de financement pour poursuivre ces recherches, ça vous donne un avantage. Donc pour cumuler un maximum de publications, certains chercheurs réaliseront toute une série d’expériences qui vont toutes dans le même sens et qui, progressivement, affinent une idée.
Or, les statisticiens et les méthodologistes ont démontré que plus l’échantillon est faible, plus la probabilité est grande qu’une différence observée résulte juste d’une fluctuation due au hasard. Ce qui me choque encore plus dans les publications actuelles, c’est que ces séries d’études sont souvent toutes parfaites. Tous les résultats vont dans le même sens.
On écarterait les données qui ne vont pas dans le bon sens?
Je ne peux pas l’affirmer mais je le suspecte très fort. En cinquante ans de carrière et plus de cinq cents articles publiés, je n’ai obtenu que deux séries parfaites. Soit je suis très mauvais, soit certains écartent ce qui ne correspond pas à la thèse qu’ils défendent.
Et ça, c’est de la sélection de données. Je suis de plus en plus persuadé que dans la plupart des études publiées, il y a de la sélection de données, à différents niveaux de gravité et ce, malgré les règles méthodologiques existantes et claires. C’est de la malhonnêteté.
Vous visez le professeur Raoult?
Un peu, mais chez lui le problème est plus vaste. Didier Raoult a effectivement rapporté des résultats très partiels alors que d’autres, dont il n’a pas fait état, infirmaient sa théorie. En prime, ses études étaient méthodologiquement mal réalisées.
Sans compter le fait qu’il n’avait pas reçu l’accord des comités d’éthique pour traiter ses patients à l’hydroxychloroquine. En France, chaque publication que vous décrochez augmente automatiquement le financement de votre laboratoire. Le Pr Raoult a publié plus de 3 500 articles – plus de cent par an avec un pic à 228 en 2016, quatre par semaine – mais beaucoup n’ont qu’une seule page et sont publiés dans un journal dont lui ou ses collaborateurs sont éditeurs. Son comportement viole toutes les règles de l’éthique scientifique.
L’évaluation par les pairs avant publication est un bon moyen d’éviter les dérives. Mais est-ce infaillible?
C’est efficace mais pas infaillible. Souvenez-vous du cas du Lancet qui avait publié, en juin 2020, une étude portant sur 96 000 patients traités dans plus de six cents hôpitaux et qui suggérait que l’hydroxychloroquine, associée ou non à un antibiotique comme l’azithromycine, augmentait la mortalité et les arythmies cardiaques chez les patients atteints de Covid-19.
Il est rapidement apparu que les données avaient été fournies par une société privée américaine douteuse. Il n’a pas fallu attendre trois semaines pour que l’article soit retiré, mais dans un domaine de recherche moins actif, la supercherie peut survivre plus longtemps.
L’intelligence artificielle serait-elle capable de tromper les reviewers?
Le risque est surtout lié aux données et aux photos, qui pourraient être manipulées, voire inventées. On en retrouve déjà dans certains articles. Heureusement, la technologie permet aussi de repérer plus facilement ces falsifications. Cela n’empêche pas certains, en Chine notamment, où il faut présenter un article de recherche pour obtenir le titre de médecin, d’acheter pour vingt ou trente mille dollars des authorships d’articles à des sociétés spécialisées qui les produisent en masse en utilisant en partie de l’intelligence artificielle.
Un chercheur aguerri comprendra à la lecture d’une étude qu’elle a été générée par un programme informatique car, notamment, les références ne sont pas adéquates, mais cela va devenir de plus en plus difficile à repérer. Tous les journaux ont publié des éditoriaux disant qu’ils refuseraient tous les articles générés par l’intelligence artificielle. Mais c’est un vœu pieux.
Bio express
1949
Naissance, le 29 juin, à Liège.
1977
Doctorat en sciences zoologiques (ULiège).
1978
Post-doctorat à l’université Rutgers, Newark (Etats-Unis).
2003-2005
Président de la Society for Behavioral Neuroendocrinology.
2010
Publie Biologie de l’homosexualité. On naît homosexuel, on ne choisit pas de l’être (Mardaga).
2016
Elu Fellow (companion) de l’American Association for the Advancement of Science (AAAS)
2019
Publie Quand le cerveau devient masculin (Humensciences).
2023
Elliott Coues Medal, American Ornithological Society.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici