Campus de l'Université de Stanford (États-Unis), sur la deuxième marche du podium du QS 2020
Chaque année, les rankings des universités fleurissent,
suscitant le même émoi que la parution des grands guides gastronomiques.
Qui sera dans le « top 50 » ? Avons-nous progressé ? Où en sont les
universités voisines (amies, néanmoins concurrentes) ? Ces
interrogations agitent les responsables des établissements
d’enseignement supérieur.
En fait, ces classements tiendraient davantage des grandes bourses
mondiales que sont le Dow Jones ou le CAC 40 que du Michelin ou du
Gault-Millau. En effet – car c’est bien le modèle dominant –, les
universités sont évaluées en fonction de leurs produits (les formations
et les résultats de la recherche), de la qualité de leur personnel et de
leur capacité à attirer les financements, ce qui se traduit par la
qualité (intellectuelle et financière) et la quantité de la clientèle
(comprenez les étudiants) qui franchiront les portes de l’établissement.
Dans ce grand marché de l’éducation, les rankings viennent
périodiquement dessiner une cartographie de l’éducation à usages
multiples, à l’adresse des étudiants, des chercheurs, des responsables
d’université et des décideurs politiques.
Signalons d’emblée qu’ils ne sont pas les seuls repères, puisque se
multiplient aujourd’hui les labels et accréditations de toutes sortes,
souvent spécialisés par domaines, qui certifient la qualité de
l’enseignement dans certaines filières. Celles qui s’occupent des
grandes écoles de commerce, comme AACSB ou EQUIS, sont les plus connues.
Quatre sources phares
Les jugements portés sur les rankings en Europe, notamment dans les
pays latins, sont souvent sévères. Il faut dire que, globalement, les universités françaises, belges, italiennes ou espagnoles, n’y brillent guère.
Trois classements jouissent d’une audience mondiale :
Tous mesurent la qualité de la recherche (parfois de l’enseignement)
en se fondant essentiellement sur des indices bibliométriques, des
données quantitatives fournies par les universités, sur des enquêtes de
notoriété et sur la présence de personnalités dont l’excellence a été
reconnue par l’obtention de prix prestigieux (Nobel, médaille Fields).
Si quelques critères sont spécifiques à certains classements, la différence se fait surtout sur leur pondération : Comparatif des critères de classement.
Partout, on voit que la notoriété est un élément important, pesant
lourdement sur le résultat final (respectivement 50 %, 33 % et 40 %). La
recherche ensuite est un facteur déterminant par rapport à
l’enseignement. Enfin l’internationalisation est directement prise en
compte par le QS-WUR, à hauteur de 30 %.
La recherche est essentiellement évaluée par des indicateurs bibliométriques (Web of Science ou Scopus).
Première réflexion, tous les domaines ne sont pas couverts. Les
sciences humaines sont moins représentées ; de manière générale, les
publications en anglais se taillent la part du lion. C’est
particulièrement vrai dans le domaine des sciences et techniques et des
sciences du vivant.
Seconde réflexion, les revues font elles-mêmes l’objet d’un ranking, au sommet duquel trônent Nature et Science,
dont le classement, largement influencé par les grands éditeurs
commerciaux (Elsevier, Springer, Wiley, etc.), est lui-même critiqué
(par exemple, Scopus est directement contrôlé par Elsevier, par ailleurs
partenaire du classement QS-WUR !).
Les rankings classent les universités en bloc, ce qui n’a pas
beaucoup de sens. Aussi a-t-on vu apparaître des classements par
domaines, ce qui affine un peu l’analyse, sans répondre toutefois aux
critiques que l’on peut faire sur l’usage des indicateurs bibliométriques).
À ces trois rankings très médiatisés est venu s’ajouter un quatrième, dont on parle moins, U-Multirank,
soutenu par l’Union européenne. Ce classement se positionne ouvertement
comme une alternative aux rankings traditionnels auxquels est reproché –
fort justement – de ne se préoccuper que des universités de recherche à
vocation internationale.
U-Multirank n’entend pas produire un palmarès des meilleures
universités. Il cherche plutôt à situer chaque établissement en fonction
de cinq grands critères : enseignement et apprentissage, recherche,
transfert de connaissances, orientation internationale, et engagement
régional.
Risques de dérives
En dehors de l’émotion passagère lors de leur publication, à quoi
peuvent bien servir les rankings ? On distinguera ici, à tout le moins,
quatre catégories de « consommateurs » : les étudiants, les chercheurs,
les responsables d’université et les décideurs politiques.
Si les étudiants de premier cycle choisissent le plus souvent leur
université en fonction d’un critère de proximité géographique, la
perspective change en master et en doctorat. De fait, la notoriété d’un
établissement, l’accréditation de certaines formations apparaissent
comme une garantie d’un diplôme de qualité, qui sera reconnu et valorisé
sur le marché de l’emploi.
Les chercheurs en début de carrière sont guidés dans leurs choix par
des considérations fort semblables. Faire partie d’une équipe renommée
est un atout pour la construction du CV personnel, une promesse aussi
d’un accès plus facile à des publications bien « rankées ». Pour un
enseignant-chercheur, contribuer au ranking de son institution signifie
en fait améliorer son propre ranking. Ceci l’amènera donc à porter son
attention sur ce qui sert à marquer des points, ce qui peut déboucher
sur des stratégies de publication.
En dehors du choix de la revue (importance du facteur d’impact), des
dérives plus inquiétantes se font jour. Ainsi, pour accroître le nombre
de citations, il est plus intéressant de publier des « guidelines » dans
un domaine général ou un article sur un thème à la mode que de
s’intéresser à des sujets pointus et originaux qui ne touchent qu’un
nombre restreint de spécialistes. La pression des rankings pourrait
ainsi en venir à conditionner le choix des thèmes de recherche.
L’intérêt de l’enseignant-chercheur à soigner son ranking est parfois
motivé par le souci de rejoindre à terme un établissement prestigieux.
Une sorte de mercato scientifique se met ainsi progressivement en place
où des chercheurs de valeur essaient de rejoindre des établissements de
renom, et où des universités moyennes essaient d’améliorer leur
classement en recrutant des chercheurs renommés.
Les responsables d’universités, présidents et recteurs, peuvent faire
un usage interne et externe des rankings. En dépit des critiques –
justifiées – qu’on peut leur adresser, les rankings sont tout de même
l’indicateur de quelque chose. On peut donc les utiliser comme des
thermomètres. Cela posé, de même qu’on peut être gravement malade avec
une température normale à 36,7°, de même une température élevée
n’indique pas forcément (même rarement) la nature précise du mal.
Le classement invite donc à se poser des questions, sans qu’on sache
toujours très bien lesquelles. Il y aura d’autant plus intérêt à le
faire qu’il est possible d’analyser la tendance sur plusieurs années :
classement stable, en hausse ou en baisse.
En externe, les rankings entrent dans la stratégie des universités
pour nouer des partenariats, attirer des étudiants et des financements.
Il sera donc stratégique de s’allier avec des universités mieux classées
pour bénéficier d’un effet d’entraînement, ou à tout le moins avec des
établissements situés dans la même zone de classement. L’analyse de la
composition des réseaux d’universités qui viennent récemment de recevoir
le label d’université européenne est révélateur des stratégies mises en
place par les institutions.
Panel de stratégies
Si les universités font régulièrement la moue devant les résultats
des rankings – surtout si elles ne sont pas dans le haut du classement
–, la plupart sont tout de même bien forcées de s’en préoccuper. Pour ce
faire, il faut d’abord comprendre les paramètres du calcul et évaluer
la maîtrise que l’on peut en avoir. Le tableau ci-dessous vise à donner
une idée de la marge de manœuvre possible : Enjeux et difficultés des classements.
Les universités ne maîtrisent pas de la même manière tous les
paramètres qui entrent en compte dans les classements. Par exemple, les
institutions ont la main sur le recrutement des enseignants-chercheurs,
beaucoup moins sur l’encadrement (ratio staff/étudiants) dans la mesure
où les contraintes financières limitent fortement les ambitions, et
elles n’ont que très peu de prise sur les enquêtes de notoriété.
Une institution peut donner une orientation forte en matière de
publication, mais ce sont en définitive les chercheurs qui s’aligneront
ou non sur cette politique. Dans ce dernier cas, on pourrait assister à
des conflits potentiels. Prenons par exemple l’« Open Access », qui
vise, entre autres choses, à contrer la suprématie (financièrement
ingérable) des grands groupes de l’édition scientifique.
La valorisation des publications en Open Access par une institution
pourrait aller à l’encontre des préoccupations des individus, soucieux
de la construction de leur carrière personnelle, ce qui passe toujours
par la publication dans des revues à haut facteur d’impact, lesquelles
sont contrôlées par les grands éditeurs (Rentier 2019).
On peut escompter que certaines mesures auront un effet assez rapide
sur les classements, tandis que d’autres, plus structurelles, ne peuvent
produire des résultats qu’à moyen, voire à long terme. C’est
typiquement le cas des recrutements des nouveaux chercheurs. En
revanche, les enquêtes de notoriété peuvent être influencées par une
communication ciblée de la part des universités et par un lobbying plus
agressif.
Enfin, un mot pour terminer sur l’influence des rankings sur les
décideurs politiques. Dans la mesure où les classements cumulés de
toutes les universités d’un pays peuvent donner une idée générale du
niveau national de la recherche et de l’enseignement, les gouvernements
gardent un œil sur les rankings, même s’il est difficile de se prononcer
sur leur influence sur les politiques nationales.
En conclusion, en dépit de leur faible valeur scientifique, il est
illusoire d’imaginer que les rankings vont (rapidement) disparaître du
paysage académique. Les intérêts financiers à promouvoir certains
modèles d’université, certaines formes de recherche sont trop importants
pour être facilement contrecarrés.
Promouvoir d’autres types de classement, d’autres formes d’évaluation
pourrait utilement contrebalancer le pouvoir excessif des rankings
mondiaux. Mais il y faudrait mettre beaucoup de moyens et de compétence
si l’on veut rendre justice à tous les types d’activités – pas
uniquement la recherche – qui font une université.
Est-on vraiment prêt à fournir cet effort pour dégager un modèle
original d’université, celui d’une université au carrefour de la
science, de la culture et de la société ? C’est là un défi majeur posé à
la classe politique européenne si elle veut être à la hauteur des
attentes de la société (voir Winand 2018).
Chaque année, les rankings des universités fleurissent,
suscitant le même émoi que la parution des grands guides gastronomiques.
Qui sera dans le « top 50 » ? Avons-nous progressé ? Où en sont les
universités voisines (amies, néanmoins concurrentes) ? Ces
interrogations agitent les responsables des établissements
d’enseignement supérieur.
En fait, ces classements tiendraient davantage des grandes bourses
mondiales que sont le Dow Jones ou le CAC 40 que du Michelin ou du
Gault-Millau. En effet – car c’est bien le modèle dominant –, les
universités sont évaluées en fonction de leurs produits (les formations
et les résultats de la recherche), de la qualité de leur personnel et de
leur capacité à attirer les financements, ce qui se traduit par la
qualité (intellectuelle et financière) et la quantité de la clientèle
(comprenez les étudiants) qui franchiront les portes de l’établissement.
Dans ce grand marché de l’éducation, les rankings viennent
périodiquement dessiner une cartographie de l’éducation à usages
multiples, à l’adresse des étudiants, des chercheurs, des responsables
d’université et des décideurs politiques.
Signalons d’emblée qu’ils ne sont pas les seuls repères, puisque se
multiplient aujourd’hui les labels et accréditations de toutes sortes,
souvent spécialisés par domaines, qui certifient la qualité de
l’enseignement dans certaines filières. Celles qui s’occupent des
grandes écoles de commerce, comme AACSB ou EQUIS, sont les plus connues.
Quatre sources phares
Les jugements portés sur les rankings en Europe, notamment dans les
pays latins, sont souvent sévères. Il faut dire que, globalement, les universités françaises, belges, italiennes ou espagnoles, n’y brillent guère.
Trois classements jouissent d’une audience mondiale :
Tous mesurent la qualité de la recherche (parfois de l’enseignement)
en se fondant essentiellement sur des indices bibliométriques, des
données quantitatives fournies par les universités, sur des enquêtes de
notoriété et sur la présence de personnalités dont l’excellence a été
reconnue par l’obtention de prix prestigieux (Nobel, médaille Fields).
Si quelques critères sont spécifiques à certains classements, la différence se fait surtout sur leur pondération : Comparatif des critères de classement.
Partout, on voit que la notoriété est un élément important, pesant
lourdement sur le résultat final (respectivement 50 %, 33 % et 40 %). La
recherche ensuite est un facteur déterminant par rapport à
l’enseignement. Enfin l’internationalisation est directement prise en
compte par le QS-WUR, à hauteur de 30 %.
La recherche est essentiellement évaluée par des indicateurs bibliométriques (Web of Science ou Scopus).
Première réflexion, tous les domaines ne sont pas couverts. Les
sciences humaines sont moins représentées ; de manière générale, les
publications en anglais se taillent la part du lion. C’est
particulièrement vrai dans le domaine des sciences et techniques et des
sciences du vivant.
Seconde réflexion, les revues font elles-mêmes l’objet d’un ranking, au sommet duquel trônent Nature et Science,
dont le classement, largement influencé par les grands éditeurs
commerciaux (Elsevier, Springer, Wiley, etc.), est lui-même critiqué
(par exemple, Scopus est directement contrôlé par Elsevier, par ailleurs
partenaire du classement QS-WUR !).
Les rankings classent les universités en bloc, ce qui n’a pas
beaucoup de sens. Aussi a-t-on vu apparaître des classements par
domaines, ce qui affine un peu l’analyse, sans répondre toutefois aux
critiques que l’on peut faire sur l’usage des indicateurs bibliométriques).
À ces trois rankings très médiatisés est venu s’ajouter un quatrième, dont on parle moins, U-Multirank,
soutenu par l’Union européenne. Ce classement se positionne ouvertement
comme une alternative aux rankings traditionnels auxquels est reproché –
fort justement – de ne se préoccuper que des universités de recherche à
vocation internationale.
U-Multirank n’entend pas produire un palmarès des meilleures
universités. Il cherche plutôt à situer chaque établissement en fonction
de cinq grands critères : enseignement et apprentissage, recherche,
transfert de connaissances, orientation internationale, et engagement
régional.
Risques de dérives
En dehors de l’émotion passagère lors de leur publication, à quoi
peuvent bien servir les rankings ? On distinguera ici, à tout le moins,
quatre catégories de « consommateurs » : les étudiants, les chercheurs,
les responsables d’université et les décideurs politiques.
Si les étudiants de premier cycle choisissent le plus souvent leur
université en fonction d’un critère de proximité géographique, la
perspective change en master et en doctorat. De fait, la notoriété d’un
établissement, l’accréditation de certaines formations apparaissent
comme une garantie d’un diplôme de qualité, qui sera reconnu et valorisé
sur le marché de l’emploi.
Les chercheurs en début de carrière sont guidés dans leurs choix par
des considérations fort semblables. Faire partie d’une équipe renommée
est un atout pour la construction du CV personnel, une promesse aussi
d’un accès plus facile à des publications bien « rankées ». Pour un
enseignant-chercheur, contribuer au ranking de son institution signifie
en fait améliorer son propre ranking. Ceci l’amènera donc à porter son
attention sur ce qui sert à marquer des points, ce qui peut déboucher
sur des stratégies de publication.
En dehors du choix de la revue (importance du facteur d’impact), des
dérives plus inquiétantes se font jour. Ainsi, pour accroître le nombre
de citations, il est plus intéressant de publier des « guidelines » dans
un domaine général ou un article sur un thème à la mode que de
s’intéresser à des sujets pointus et originaux qui ne touchent qu’un
nombre restreint de spécialistes. La pression des rankings pourrait
ainsi en venir à conditionner le choix des thèmes de recherche.
L’intérêt de l’enseignant-chercheur à soigner son ranking est parfois
motivé par le souci de rejoindre à terme un établissement prestigieux.
Une sorte de mercato scientifique se met ainsi progressivement en place
où des chercheurs de valeur essaient de rejoindre des établissements de
renom, et où des universités moyennes essaient d’améliorer leur
classement en recrutant des chercheurs renommés.
Les responsables d’universités, présidents et recteurs, peuvent faire
un usage interne et externe des rankings. En dépit des critiques –
justifiées – qu’on peut leur adresser, les rankings sont tout de même
l’indicateur de quelque chose. On peut donc les utiliser comme des
thermomètres. Cela posé, de même qu’on peut être gravement malade avec
une température normale à 36,7°, de même une température élevée
n’indique pas forcément (même rarement) la nature précise du mal.
Le classement invite donc à se poser des questions, sans qu’on sache
toujours très bien lesquelles. Il y aura d’autant plus intérêt à le
faire qu’il est possible d’analyser la tendance sur plusieurs années :
classement stable, en hausse ou en baisse.
En externe, les rankings entrent dans la stratégie des universités
pour nouer des partenariats, attirer des étudiants et des financements.
Il sera donc stratégique de s’allier avec des universités mieux classées
pour bénéficier d’un effet d’entraînement, ou à tout le moins avec des
établissements situés dans la même zone de classement. L’analyse de la
composition des réseaux d’universités qui viennent récemment de recevoir
le label d’université européenne est révélateur des stratégies mises en
place par les institutions.
Panel de stratégies
Si les universités font régulièrement la moue devant les résultats
des rankings – surtout si elles ne sont pas dans le haut du classement
–, la plupart sont tout de même bien forcées de s’en préoccuper. Pour ce
faire, il faut d’abord comprendre les paramètres du calcul et évaluer
la maîtrise que l’on peut en avoir. Le tableau ci-dessous vise à donner
une idée de la marge de manœuvre possible : Enjeux et difficultés des classements.
Les universités ne maîtrisent pas de la même manière tous les
paramètres qui entrent en compte dans les classements. Par exemple, les
institutions ont la main sur le recrutement des enseignants-chercheurs,
beaucoup moins sur l’encadrement (ratio staff/étudiants) dans la mesure
où les contraintes financières limitent fortement les ambitions, et
elles n’ont que très peu de prise sur les enquêtes de notoriété.
Une institution peut donner une orientation forte en matière de
publication, mais ce sont en définitive les chercheurs qui s’aligneront
ou non sur cette politique. Dans ce dernier cas, on pourrait assister à
des conflits potentiels. Prenons par exemple l’« Open Access », qui
vise, entre autres choses, à contrer la suprématie (financièrement
ingérable) des grands groupes de l’édition scientifique.
La valorisation des publications en Open Access par une institution
pourrait aller à l’encontre des préoccupations des individus, soucieux
de la construction de leur carrière personnelle, ce qui passe toujours
par la publication dans des revues à haut facteur d’impact, lesquelles
sont contrôlées par les grands éditeurs (Rentier 2019).
On peut escompter que certaines mesures auront un effet assez rapide
sur les classements, tandis que d’autres, plus structurelles, ne peuvent
produire des résultats qu’à moyen, voire à long terme. C’est
typiquement le cas des recrutements des nouveaux chercheurs. En
revanche, les enquêtes de notoriété peuvent être influencées par une
communication ciblée de la part des universités et par un lobbying plus
agressif.
Enfin, un mot pour terminer sur l’influence des rankings sur les
décideurs politiques. Dans la mesure où les classements cumulés de
toutes les universités d’un pays peuvent donner une idée générale du
niveau national de la recherche et de l’enseignement, les gouvernements
gardent un œil sur les rankings, même s’il est difficile de se prononcer
sur leur influence sur les politiques nationales.
En conclusion, en dépit de leur faible valeur scientifique, il est
illusoire d’imaginer que les rankings vont (rapidement) disparaître du
paysage académique. Les intérêts financiers à promouvoir certains
modèles d’université, certaines formes de recherche sont trop importants
pour être facilement contrecarrés.
Promouvoir d’autres types de classement, d’autres formes d’évaluation
pourrait utilement contrebalancer le pouvoir excessif des rankings
mondiaux. Mais il y faudrait mettre beaucoup de moyens et de compétence
si l’on veut rendre justice à tous les types d’activités – pas
uniquement la recherche – qui font une université.
Est-on vraiment prêt à fournir cet effort pour dégager un modèle
original d’université, celui d’une université au carrefour de la
science, de la culture et de la société ? C’est là un défi majeur posé à
la classe politique européenne si elle veut être à la hauteur des
attentes de la société (voir Winand 2018).
Nova versió dels Països Catalans. Economia i ocupació.
Els Països Catalans són el territori amb menys treballadors públics per
cada mil habitants i on menys pes tenen sobre el total d’ocupats segons
l’informe ‘Empleats públics a Catalunya i Espanya (2013-2019)’ elaborat per l’Observatori Pimec.