- JFM’s blog - http://jfmela.free.fr/jfmblog -
Retour sur le match France-Angleterre
Posted By JFM On 23 mars 2009 @ 20:01 In Société, Evaluation | Comments Disabled
On se souvient de la sortie de N. Sarkozy lors de sa fameuse allocution du 22 janvier 2009 : « Comment expliquer qu’avec une dépense de recherche plus élevée que celle de la Grande Bretagne, et environ 15% de chercheurs statutaires en plus que nos amis anglais, la France soit largement derrière elle pour la part de production scientifique dans le monde ? Il faudra me l’expliquer ! Plus de chercheurs statutaires, moins de publications et, pardon, je ne veux pas être désagréable, à budget comparable, un chercheur français publie de 30 à 50% en moins qu’un chercheur britannique dans certains secteurs. En somme, nous avions perdu le « match » contre la Grande-Bretagne, et ça allait chauffer pour les joueurs et les entraîneurs ! Mais le président n’avait pas lu la « presse sportive spécialisée »…
En 2001, Rémi Barré[3] [3] publie un intéressant article[4] [4] dans lequel on trouve une critique argumentée de la « méthode d’arbitrage » du « match » France-Angleterre, utilisée par Robert May. Il explique pourquoi cette méthode ne peut pas fournir de comparaison raisonnable entre les différents pays. En réalité, son article a une portée plus générale : il met en évidence les limites de pertinence des indicateurs quantitatifs de performance, et le fait qu’il ne peut pas y avoir de relation mécanique entre la valeur d’un seul indicateur d’input et la « productivité scientifique » d’un pays, en termes de publications.
L’indicateur introduit par Robert May est le quotient du nombre de publications référencées dans le Science Citation Index (SCI), par la dépense en recherche de base (basic research expense)[5] [5]. Rémi Barré fait une critique de l’évaluation des deux termes du quotient. Il fait un certain nombre d’hypothèses raisonnables sur les facteurs de biais mais, comme il le reconnaît lui-même, il entre une part d’arbitraire dans la quantification de ces facteurs. Ceci peut affecter le résultat final qu’il obtient, mais pas la valeur démonstrative de sa critique. Nous en donnons ici un aperçu, renvoyant à l’article original pour plus de détails.
Qu’est-ce qu’on entend par « dépense en recherche de base » ?
La dépense publique en recherche de base est définie comme le montant total des crédits de recherche des universités et des organismes publics. Ceci inclut non seulement la recherche fondamentale proprement dite, mais aussi de la recherche appliquée et de la recherche militaire. Les deux dernières catégories de recherche produisent très peu d’articles référencés dans le SCI. Rémi Barré propose donc de ne prendre en compte les dépenses de recherche finalisée ou militaire que pour 10% de leur montant. Or il apparaît que si la dépense de recherche « académique » est du même ordre dans les deux pays, la France dépense 50% de plus que la Grande Bretagne dans les autres institutions publiques de recherche. Si l’on fait cette correction, notre dépense en recherche de base qui était supérieure à la dépense de la Grande Bretagne de 28% selon Robert May, ne l’est plus que de 12%.
On ne publie pas autant dans toutes les disciplines, si l’on s’en tient aux publications indexées dans le SCI. Par exemple la recherche médicale (clinical medecine) représente, 30% de la base SCI, pour 10% de la dépense en recherche de base. Ce qui veut dire que la tendance à publier est 3 fois plus forte que pour la moyenne des autres domaines. Or la France et la Grande Bretagne n’ont pas le même niveau d’activité dans ce domaine. La Grande Bretagne produit 12% des articles mondiaux en médecine. La part mondiale de la Grande Bretagne dans ce domaine est de 41% supérieure à sa part mondiale pour l’ensemble des disciplines, tandis que pour la France, elle est de 5% inférieure[6] [6]. Pour corriger ce biais, Rémi Barré est amené à introduire une pondération des articles de médecine. Après correction, le nombre de publications de la Grande Bretagne qui était de 67% plus élevé que celui de la France, ne l’est plus que de 46%.
Le SCI n’incluant pas les sciences humaines et sociales, on doit donc retrancher du dénominateur la dépense qui leur est affectée. Or elle est plus importante en France qu’en Grande Bretagne.
En incluant toutes les hypothèses de biais qu’il peut raisonnablement évaluer, Rémi Barré arrive à des valeurs comparables de l’indicateur de Robert May pour la France et pour la Grande-Bretagne !
La « productivité » d’un système de recherche ne peut pas être caractérisée par un seul nombre, quelle que soit la définition qu’on en donne et le caractère sophistiqué de son mode de calcul. Il y a trop de facteurs qui influencent la valeur de l’indicateur et qui ne sont pas directement liés à la « productivité ». On a une grande variété d’acteurs avec des objectifs différents et des stratégies différentes qui sont pris dans des réseaux de relations avec des financeurs et des utilisateurs. On ne peut pas attribuer un résultat particulier à une seule variable d’input[7] [7].
C’est dans un premier article[8] [8] de 1997 que Robert May avait introduit l’idée d’évaluer les performances scientifiques nationales en rapportant les résultats (essentiellement les nombres de publications ou de citations) à la dépense publique (de R&D ou de recherche fondamentale). Il notait cependant les difficultés qui pouvaient se présenter. Il admettait en particulier que les grandes différences qui pouvaient apparaître entre les premiers et les derniers pays du G7 étaient « surprenantes ». Mais il cherchait à en donner une interprétation structurelle qui débouche en fait sur des problèmes très actuels.
« I thus suggest that, among the scientifically advanced countries, better value for money (in terms of papers or citations per person or per dollar spent) might be associated with performing basic research mostly in universities, rather than in research institutes. If so, there are significant implications for those countries, such as the
« One paradoxical reason for the
Aujourd’hui que les indicateurs de comparaison ont envahi le monde, il serait vain de vouloir les ignorer purement et simplement[14] [14]. Finalement, ce qui est le plus intéressant, c’est la critique qu’on peut en faire, les problèmes qu’ils soulèvent et les débats qu’ils suscitent. A condition, surtout, de ne pas les traiter comme des « résultats sportifs »…
[15] [1] Sir Robert May (devenu depuis Lord May of Oxford !) est un savant d’origine australienne qui a obtenu le prix Crafoord pour ses travaux en Dynamique des populations et Ecologie théorique. Il a été « conseiller scientifique du gouvernement britannique » et a dirigé l’Office gouvernemental pour la Science (Government office for science) rattaché au Premier Ministre.
[16] [2] Robert M. May : The scientific investment of nations. Science, vol. 281 (1998).
[17] [3] Rémi Barré a été de 1990 à 2001 directeur de l’Observatoire des Sciences et Techniques (OST). Il est aujourd’hui chef du Département des études et de la prospective à la Direction générale de la recherche et de l’innovation (DGRI).
[18] [4] Rémi Barré : [19] Sense and nonsense of S&T productivity indicators. Science and Public Policy, vol 28 (2001)
[20] [5] Il faut souligner que l’étude de Robert May laisse donc de côté les sciences humaines et sociales qui ne sont pas prises en compte par le SCI.
[21] [6] Chiffres de 1996.
[22] [7] Rémi Barré. Ibid.
[23] [8] Robert May : The scientific wealth of nations. Science 275 (1997).
[24] [9] [25] « Evaluation de la recherche universitaire en Grande-Bretagne » in JFM’s blog.
[26] [10] Les deux tiers des 12.000 chercheurs CNRS sont concentrés sur une vingtaine de campus (la moitié sur 12 campus).
[27] [11] Ceux-ci mettent en avant, non pas la concentration des moyens du CNRS, mais au contraire sa capacité à innerver l’ensemble des universités françaises, ce qui renvoie plutôt à son rôle d’agence de moyens.
[28] [12] David A. King : [29] The scientific impact of nations. Nature, vol 430 (2004).
[30] [13] Définis par Thomson ISI comme les 1% d’articles les plus cités dans 21 domaines scientifiques.
[31] [14] En France [32] l’Observatoire des Sciences et Techniques publie tous les deux ans un rapport qui présente toute une gamme d’indicateurs sur les moyens et les résultats de la recherche française et mondiale.
Article printed from JFM’s blog: http://jfmela.free.fr/jfmblog
URL to article: http://jfmela.free.fr/jfmblog/?p=125
URLs in this post:
[1] [1]: #_ftn1
[2] [2]: #_ftn2
[3] [3]: #_ftn3
[4] [4]: #_ftn4
[5] [5]: #_ftn5
[6] [6]: #_ftn6
[7] [7]: #_ftn7
[8] [8]: #_ftn8
[9] [9]: #_ftn9
[10] [10]: #_ftn10
[11] [11]: #_ftn11
[12] [12]: #_ftn12
[13] [13]: #_ftn13
[14] [14]: #_ftn14
[15] [1]: #_ftnref1
[16] [2]: #_ftnref2
[17] [3]: #_ftnref3
[18] [4]: #_ftnref4
[19] Sense and nonsense of S&T productivity indicators.: http://docserver.ingentaconnect.com/deliver/connect/beech/03023427/v28n4/s3.pdf?expires=1237832790&a
mp;id=49596168&titleid=898&accname=Guest+User&checksum=14FD5F0AEC0F2E64D76B589A8FC77B27
[20] [5]: #_ftnref5
[21] [6]: #_ftnref6
[22] [7]: #_ftnref7
[23] [8]: #_ftnref8
[24] [9]: #_ftnref9
[25] « Evaluation de la recherche universitaire en Grande-Bretagne »: http://jfmela.free.fr/jfmblog/?p=14
[26] [10]: #_ftnref10
[27] [11]: #_ftnref11
[28] [12]: #_ftnref12
[29] The scientific impact of nations.: http://www.berr.gov.uk/files/file11959.pdf
[30] [13]: #_ftnref13
[31] [14]: #_ftnref14
[32] l’Observatoire des Sciences et Techniques : http://www.obs-ost.fr/
Click here to print.
Copyright © 2007 JFM's blog. All rights reserved.