lundi 30 novembre 2009

Les universités européennes en manque d'autonomie

LEMONDE.FR | 30.11.09

En Europe, "les universités ne bénéficient souvent pas de réelle autonomie dans certains domaines essentiels". Le constat émane de l'Association européenne des universités (EUA) – c'est-à-dire l'équivalent, au niveau européen, de la Conférence des présidents d'université (CPU) en France.

Il est tiré d'un "panorama" inédit de l'autonomie des universités européennes que l'EUA vient de rendre public, lundi 30 novembre 2009, et pour lequel l'association, a "ausculté" 33 pays.

Soulignant "que de nombreux gouvernements, le secteur de l'enseignement supérieur et la Commission européenne reconnaissent qu'une autonomie accrue pour les universités est une étape essentielle vers la modernisation du secteur au XXIe siècle", l'EUA estime dans son rapport qu'"en pratique, les autorités publiques jouent toujours un rôle central dans la réglementation des systèmes universitaires, et, dans de nombreux pays, conservent un contrôle direct sur le secteur".

"MENACE POUR LA VIABILITÉ ET LE DÉVELOPPEMENT"

"Malgré le passage à un système de pilotage 'à distance' dans un certain nombre de pays en Europe, les universités ne bénéficient souvent pas de réelle autonomie dans certains domaines essentiels, et en particulier en termes de gestion financière", poursuit le rapport.

L'EUA se dit "convaincue que ce manque d'autonomie est une réelle menace pour la viabilité et le développement des quelques 5 000 universités d'Europe". Et ce "alors que les fonds publics dédiés à l'enseignement tendent à stagner partout en Europe, et que les universités sont appelées à explorer de nouvelles voies de financement".

Concrètement, Thomas Estermann, l'auteur de ce rapport, a analysé une trentaine de "critères" au total en matière d'autonomie des universités européennes. Il s'est attaché à les classer en quatre grands thèmes : autonomie organisationnelle (quel degré d'autonomie ont les universités pour organiser leur gouvernance ?), autonomie académique (sélection des étudiants, définition des programmes, etc.), autonomie financière (capacité à lever des fonds, à disposer de leur immobilier, à mettre en place des droits d'inscription, etc.) et autonomie dans la gestion des ressources humaines.

"Dans l'ensemble, les universités ont obtenu un certain degré d'autonomie. Mais, il ne faut pas s'arrêter à la surface des choses. Par exemple, en Italie, les universités disposent d'une grande autonomie financière, cependant leur gouvernance est tellement complexe, qu'elles ne peuvent utiliser cette autonomie", explique Thomas Estermann.

De même, selon les pays, la faiblesse des financements publics ne permet pas d'assurer l'autonomie financière promise par l'Etat.

Enfin, si dans certains pays les universités bénéficient d'une grande flexibilité en matière de gestion des ressources humaines, elles sont contraintes d'appliquer des règlementations imposées par leur Etat.

MISE EN PLACE D'UN "TABLEAU DE BORD"

Pour autant, précise Thomas Estermann, cette analyse de l'autonomie ne doit pas être faite au détriment des traditions universitaires nationales. En clair, l'EUA ne présente pas "de modèle idéal de l'autonomie, mais plutôt une série de principes de base qui constituent les éléments cruciaux de l'autonomie. Mis en place, ces éléments permettraient aux universités de mener leurs missions", tant auprès des étudiants que de la société.

Après ce panorama, l'Association européenne des universités prépare pour 2011 un "tableau de bord" permettant d'évaluer l'autonomie des universités (au niveau national) en Europe. Ce tableau de bord pourra servir de référence aux gouvernements souhaitant évaluer les progrès de leurs réformes par rapport aux autres systèmes. Il permettra également aux universités de prendre conscience des écarts qui existent en Europe.

Philippe Jacqué

mardi 24 novembre 2009

Recherche : le petit pas du grand emprunt

Le Monde, 24 novembre 2009

La priorité donnée à la recherche et à l'innovation par le rapport Juppé-Rocard sur l'utilisation du grand emprunt, remis jeudi 19 novembre au président de la République, rappelle que l'injection massive de liquidités dans le système bancaire et les plans de relance soutenant les industries les plus frappées par la crise relèvent plus du sauvetage en mer que de la stratégie de sortie de crise.

Pour qu'une croissance solide et pérenne revienne, économistes et politiques s'accordent autour de l'idée que de nouvelles technologies, de nouvelles façons de produire et consommer, moins gourmandes en énergie et ressources naturelles, plus riches en intelligence et en services, doivent remplacer le modèle économique actuel.

Les grandes puissances de la planète ont, dès avant la crise, investi massivement dans la recherche et développement (R & D) et le soutien à l'innovation technologique.

En mars 2000, l'Union européenne avait défini la stratégie dite de Lisbonne, qui devait faire de l'Europe "l'économie de la connaissance la plus compétitive et la plus dynamique du monde d'ici à 2010", et fixait pour objectif une dépense de R & D de 3 % du produit intérieur brut (PIB) européen.

Dix ans après, l'objectif est loin d'être atteint (1,85 % en 2007, contre 1,7 % en 2000). L'écart avec les Etats-Unis et le Japon s'est creusé, et va continuer à se creuser, tant le grand emprunt paraît, à l'échelle française, sans commune mesure avec ce qui se passe aux Etats-Unis.

Barack Obama "a injecté dès 2009 162 milliards de dollars (109 milliards d'euros) de subventions fédérales dans la recherche, et en a programmé 142 autres pour 2010. C'est le plus gros effort de l'histoire américaine", explique Albert Teich, directeur des Science & Policy Programs de l'American Association for the Advancement of Science.

Le plan de relance (Recovery Act, 17 février) offrait déjà 20 milliards supplémentaires à la recherche. La National Science Foundation - NSF, chargée de financer les laboratoires universitaires - a vu ses moyens augmenter de 50 %, les National Institutes of Health (NIH, recherche médicale) de 36 %. Dans le budget 2010, les hypothèses les plus hautes ont été retenues : 10,4 milliards pour les NIH en deux ans, 3,5 milliards pour le Department of Energy, 3 milliards pour la NSF, 830 millions pour la National Oceanic and Atmospheric Administration (NOAA), 400 millions pour la NASA, etc. L'objectif, à un horizon plus lointain, est d'atteindre 3 % du PIB (2,7 % en 2008) en 2012, et de doubler en dix ans les retombées (brevets, publications, soutiens aux PME) des agences fédérales de recherche technologique.

Mais, pour la communauté scientifique américaine, l'acte politique le plus important a peut-être été le Memorandum on Scientific Integrity (9 mars), par lequel la Maison Blanche a enjoint à toutes les agences et administrations fédérales d'utiliser les résultats de la recherche universitaire pour élaborer leurs propres décisions et programmes...

Car, estime Albert Teich, les moyens financiers - certes indispensables - ne suffisent pas s'ils ne sont pas accompagnés par la mobilisation des chercheurs et la confiance entre les différents partenaires du système d'innovation, publics et privés, politiques et professionnels. Une confiance qui peine à se construire, particulièrement en France. En témoigne la violente réaction du monde académique à la critique à peine voilée de leurs performances par Nicolas Sarkozy dans son discours du 22 janvier sur la recherche, et la longue paralysie de l'université française qui a suivi.

Les économistes Jean-Hervé Lorenzi et Alain Villemeur, dans leur ouvrage L'Innovation au coeur de la nouvelle croissance, analysent l'insuffisance de l'effort de R & D en Europe et en France comme des "défaillances de marché". Selon eux, ces défaillances doivent inciter les pouvoirs publics à construire de nouvelles politiques d'innovation, jusqu'ici basées sur la subvention de programmes associant les principaux acteurs scientifiques et industriels d'un domaine donné - un schéma encore suivi par les "actions" proposées par le rapport Juppé-Rocard, avec des moyens très limités.

Pourtant, au-delà de la question de l'ampleur des moyens, des stratégies alternatives existent.

Dans son rapport "Vers l'émergence de nouveaux modèles de croissance ?", l'économiste Daniel Cohen explique que, si le pouvoir d'achat des Français a bien été multiplié par deux entre 1970 et 2009, la hausse des prix des matières premières et de l'énergie, en augmentant les prix des "biens premiers" (nourriture, habillement, logement, chauffage, transport), a en réalité laissé fort peu de marge pour permettre aux ménages français d'acquérir les biens et les services de la "société de la connaissance" censés être offerts par les nouvelles technologies numériques.

Le revenu moyen en 2008 - 1 467 euros - ne laisserait que 294 euros après l'acquisition de ces "biens premiers". Autrement dit, le faible décollage de l'économie de l'innovation en France ne serait pas tant dû à un défaut d'offre - qui serait lui-même le résultat d'une mauvaise organisation du système français de recherche et d'innovation - qu'à un défaut de demande, faute d'un pouvoir d'achat suffisant.

Ce renversement de perspective est aussi mis en évidence par le Livre blanc "Innovation Nation", publié en mars 2008 par le gouvernement britannique, qui définit une sorte de stratégie de Lisbonne des bords de la Tamise.

Il met en avant la notion d'"innovation par la demande" et suggère que les politiques publiques se préoccupent d'abord de faire émerger la demande d'innovation cachée, qui peut porter sur des objets de consommation, mais aussi sur des services à usage privé, ou sur des biens et services collectifs et publics.

Les outils d'une telle politique sont les réglementations et normes techniques, les marchés publics, les aides aux PME proposant des services (et non plus seulement des technologies) innovants, le soutien aux partenariats incluant les utilisateurs finaux et les citoyens.

L'un des principaux inspirateurs de cette approche, Luke Gheorghiou, professeur de politique et de gestion des sciences et techniques à l'université de Manchester, note que "le concept d'innovation par la demande était considéré comme incompatible avec la libre concurrence".

Aujourd'hui, même la Commission européenne, au vu des piètres résultats de la stratégie de Lisbonne, semble revenir sur cette opinion. A la suite du rapport Aho (du nom d'un ancien premier ministre finlandais, président du groupe de travail, dont M. Gheorghiou est le rapporteur), rendu en janvier 2006, la Commission a d'abord préconisé une démarche européenne commune en matière de commandes publiques en faveur des entreprises innovantes (septembre 2007), puis a lancé une "Initiative des marchés pilotes" (Lead Market Initiative) afin de faire émerger la demande dans des secteurs délaissés par les entreprises.

Comme l'illustre Rémi Barré, professeur au Conservatoire national des arts et métiers et membre du groupe de réflexion FutuRIS sur la recherche en France, "si l'on veut inventer le véhicule ou la maison du futur, il ne faut pas seulement subventionner la R & D de Renault et de Bouygues, mais aussi intégrer à un programme d'innovation les associations de quartier, et mener des expérimentations collectives".

Antoine Reverchon

lundi 23 novembre 2009

La recherche universitaire évaluée... au mépris de la connaissance

par FREDERIQUE BARNIER, Enseigant-chercheur en sociologie, université d'Orléans; Le Monde, Chronique d'abonnés, 23 novembre 2009

Lien

Depuis quelques mois, depuis en fait les récents débats autour de la réforme du statut des enseignants-chercheurs, un vent étrange souffle dans les couloirs des universités, bruissant de rumeurs et de palabres surprenants pour le non initié autour de "labo classé A" ou "B" ou pire encore "C", de revues toutes aussi classées A ,B ou C....

Les mêmes bruissements se retrouvent dans les débats autour des "pôles d'excellence" de la recherche nationale si nécessaires à son rétablissement dans les classements internationaux.

La ministre, le gouvernement et tous les adeptes d'une politique de "l'excellence scientifique" peuvent ainsi être satisfaits. L'essence du projet de loi est décidément bien entrée dans la tête de tous les enseignants-chercheurs même dans celle qu'on pouvait pourtant espérer un peu plus dure des enseignants-chercheurs en sciences humaines.

Pour la plupart d'entre eux en effet, la course est engagée : hors de la publication de rang A (in english please) et du colloque (international s'il vous plait) point de salut.

Ironie ou paradoxe, le principe de l'évaluation généralisée est ainsi intégré par une recherche universitaire qui l'a souvent farouchement critiqué et au moment même où ses effets catastrophiques sont dénoncés dans les entreprises. Avec les classements de type Shanghai, la recherche mesure ses performances comme une équipe de foot sans que personne ne s'en émeuve.

Au-delà des effets pervers déjà connus : le renforcement d'inégalités déjà criantes (entre Paris et province, entre sciences "dures" et sciences humaines, entre grandes et petites facs entre petits et gros labos...), la course inique aux publications, la cooptation renforcée, les effets de réseaux... se dessine également la perspective d'une recherche "entre soi", recherche expressément et nécessairement brillante, souvent mondaine peut être de grande qualité mais pour combien de temps et surtout pour quoi faire?

Se dessinent ainsi et surtout les contours sclérosants d'une recherche formatée dans la forme, le fond et la pratique.

Dans la forme déjà se refermant autour des "bonnes revues" (quelle infantilisation, on vous les désigne une à une, discipline par discipline au cas vous ne sachiez pas les reconnaître), ne contenant que des articles universitaires calibrés, certifiés conformes et notamment reconnaissables (au-delà de leur intérêt et de leur qualité souvent indéniables) à leur écriture convenue, accablée de références, forcément adoubés par des comités de lecture qui risquent d'être bientôt surchargés de travail, enfin ceux... de rang A.

Si écrire fait évidemment partie de la recherche, publier (au sens de l'excellence c'est à dire publier "utile") est déjà en passe de devenir un autre métier...

Dans le fond ensuite et surtout quand une recherche féconde en sciences humaines doit améliorer la connaissance scientifique du monde et pratiquer le partage citoyen de cette connaissance sur des sujets (l'école, la banlieue, l'entreprise, la violence...) qui forcément intéressent et engagent les gens dans leur quotidien. La démarche de connaissance comme l'a si bien explicitée Bachelard est à l'opposé de cette recherche de "l'excellence" : elle est lente, laborieuse, difficile, pleine de déconvenues. Elle doit parfois contredire, lutter contre des idées acquises, débroussailler de nouveaux champs et dans tous les cas être tournée vers le monde. Elle est surtout fille de l'humilité et n'a que peu de choses à voir avec cette quête permanente de reconnaissance interne.

Dans la pratique enfin, qui risque d'être bien restrictive à l'aune de ces seuls critères. Ecrire dans cette revue (géniale mais pas classée) : non rentable (pour ma carrière, mon HDR, mon poste de prof...).

Organiser un colloque (oh modeste, dans mon université de province) : non rentable. Aller communiquer sur mes travaux devant des publics citoyens que cela intéresse vraiment (syndicalistes, parents d'élèves, salariés, associations...) : non rentable....

Et que dire des activités administratives et de l'enseignement... dont on mesure l'indignité (comble de l'ironie ou de la misère) à leur absence d'évaluation !

Tout cela était déjà... me direz vous.

Sans doute, mais le climat actuel donne en prime aux tenants de cette fausse excellence scientifique et à ceux qui en appliquent aveuglément les principes, l'arme officialisée du mépris voire de la menace.

jeudi 19 novembre 2009

Grand emprunt: Rocard et Juppé dessinent la France de demain

Grand emprunt: Rocard et Juppé dessinent la France de demain, Le Figaro, 18 novembre 2009

par Cyrille Lachèvre et Marie Visot

La commission sur le grand emprunt recommande à l'État d'investir 35 milliards d'euros dans sept domaines déclinés en 17 programmes d'action. Couplé au financement privé, l'investissement total atteindrait 60 milliards.

«Cet emprunt national doit être porteur de sens et d'espoir pour les générations futures.» Chargés de réfléchir aux priorités stratégiques d'investissements qui seront financées par un grand emprunt annoncé dans son principe en juin dernier par le président de la République , Michel Rocard et Alain Juppé ont achevé leurs travaux. Après avoir auditionné plus de deux cents acteurs et examiné plus de trois cents contributions écrites, ils rendront ce jeudi matin leurs conclusions à Nicolas Sarkozy. Dans ce document de 128 pages, que Le Figaro s'est procuré, les deux anciens premiers ministres rappellent qu'il y a «deux façons de mal préparer l'avenir : accumuler les dettes pour financer les dépenses courantes; mais aussi, et peut-être surtout, oublier d'investir dans les domaines moteurs». Principale donnée à l'appui de ce constat : la part de l'investissement dans les dépenses publiques a reculé d'un point depuis le début des années 1980, passant de 6% à 5%.

Pour toutes ces raisons, la commission recommande d'engager la transition vers un nouveau modèle de croissance «moins dépendant des énergies fossiles et davantage tourné vers la connaissance». Et ce, avec la contribution d'«une intervention publique résolue». Plutôt que de cibler des projets précis, les vingt-deux membres de la commission ont préféré «définir de grandes priorités», répondant à ce double impératif d'économie verte et de la connaissance. Au final, sept «axes» d'investissement ont été retenus, associés à dix-sept programmes «d'actions». L'enseignement supérieur se taille la part du lion avec 16 milliards d'investissement proposés, suivi par le développement des villes de demain (aménagement urbain, réseaux intelligents...), qui se voit allouer 4,5 milliards, et le numérique (4 milliards dont deux pour le passage au très haut débit). Les autres axes concernent les PME innovantes, les sciences du vivant, les énergies décarbonées et la mobilité du futur.

Au total, la commission recommande que l'État investisse 35 milliards d'euros dans ces sept programmes. Mais, «par effet de levier vis-à-vis des financements privés, locaux et européens, l'emprunt national devrait finalement correspondre à un investissement total de plus de 60 milliards», souligne le rapport. Dans tous les cas, les dépenses choisies sont «porteuses d'une ­rentabilité directe» (dividendes, royalties, intérêts…) ou «indirecte» (recettes fiscales induites par une activité économique accrue) pour l'État et de bénéfices socio-économiques.

Comité de surveillance

Si les modalités de levée de l'emprunt n'entraient pas dans le mandat de la commission, «il lui est apparu indispensable de proposer la mise en place d'un dispositif ­rigoureux de gouvernance», soulignent Alain Juppé et Michel Rocard. La commission préconise non seulement que les fonds levés par l'emprunt national soient «affectés à des organismes gestionnaires et gérés de manière étanche par rapport au reste du budget». Mais elle recommande aussi la mise en place, auprès du premier ministre, d'un comité de surveillance, «composé à part égale de parlementaires, de personnalités qualifiées et de représentants des ministères concernés», lequel pourrait être doté d'une partie des fonds de l'emprunt national, «par exemple 0,05% du montant». Et ce, afin d'être certain que l'argent aille bien là où il est censé aller.

Quant au montant de cet emprunt, il ne devrait pas atteindre les 35 milliards d'investissements évoqués dans le rapport Juppé-Rocard. L'État va en effet se servir des 13 milliards que lui ont remboursés les banques qu'il avait aidées pendant la crise financière. Il ne lui restera plus alors qu'une grosse vingtaine de milliards à emprunter. Exactement ce que le Trésor estime être la capacité d'emprunt supplémentaire de la France sans risque de dégrader sa notation.

Grand emprunt: L'enseignement supérieur et la recherche sont érigés en priorité absolue

Grand emprunt: L'enseignement supérieur et la recherche sont érigés en priorité absolue, Le Figaro, 18 novembre 2009

par Marie-Estelle Pech

Le but serait de faire émerger sur quelques sites «des campus capables de concurrencer les meil­leurs mondiaux».

Forts de la certitude que le dynamisme de l'économie en France passe par des investissements massifs en matière d'éducation, les auteurs du rapport proposent d'investir seize milliards d'euros dans l'enseignement supérieur et la recherche.

Il y a «urgence», estime la commission à «mobiliser des sommes importantes» : les classements internationaux «font état de prestations médiocres» et, en dépit des efforts récents de l'État, les moyens accordés à l'enseignement supérieur français sont aujourd'hui inférieurs à la moyenne de l'OCDE.

La commission voudrait affecter ces sommes sur quatre types d'actions. La plus importante consisterait à créer une «agence nationale des campus», dotée d'un capital de 10 milliards d'euros.

Le but serait de faire émerger sur quelques sites «des campus capables de concurrencer les meil­leurs mondiaux». Cette proposition s'inscrit dans la droite ligne d'Opération campus, lancée par l'Élysée et financée par la vente d'actions EDF pour cinq milliards d'euros, il y a deux ans. Elle reflète la volonté, plusieurs fois répétée, de Nicolas Sarkozy, de faire émerger des universités d'élite capables de rivaliser avec les plus grands campus américains.

Toujours dans cette logique élitiste, Michel Rocard et Alain Juppé envisagent d'attribuer par ailleurs 3,5 milliards d'euros au «développement de quatre à six campus d'innovation technologique», inspirés par les meilleures pratiques mondiales. Ils seraient organisés sur un «site unique autour d'instituts de recherche technologique».

Appel à projets

Il s'agira aussi de mieux protéger et valoriser les résultats de la recherche française.

«Les pays les plus dynamiques savent déposer des brevets en nombre important et réunir des compétences interdisciplinaires de haut niveau sur un même site», justifie le rapport.

Pour deux milliards d'euros, la commission propose aussi de financer, sur un appel à projets ouvert à tous les établissements de l'enseignement supérieur, des initiatives pédagogiques innovantes et des bourses «visant à attirer ou faire revenir en France des chercheurs de haut niveau».

La commission envisage enfin d'accélérer la création de 25 000 places d'internats d'excellence pour le lycée et les filières sélectives du supérieur et de «contrer la désaffection des jeunes pour les études scientifiques et mathématiques». Quelque 500 millions d'euros pourraient être alloués à ces dernières propositions.

Qatar Foundation: Bonne chance à Carla au Qatar

Qatar Foundation: Bonne chance à Carla au Qatar

Par Georges Malbrunot le 19 novembre 2009

Des grandes écoles françaises enfin peut-être à Doha. Il faut souhaiter bonne chance à Carla Bruni qui a cherché à promouvoir l’ouverture d’annexes de nos grandes écoles au Qatar lors d'un récent séjour dans ce minuscule émirat du Golfe, qui sait parier sur l’avenir.

La première dame a été l’hôte en début de semaine de Sheikha Moza, la dynamique et très influente troisième épouse de l’émir Sheikh Hamad al-Thani, un grand ami de la France.

En 2003, Sheikha Moza eut l’idée de bâtir une « Qatar Foundation », spécialisée dans l’Education et la Culture. Elle fit le pari suivant : « puisque nos étudiants sont plutôt mal vus aux Etats-Unis, depuis les attentats du 11 Septembre 2001, faisons venir les meilleures universités américaines à Doha ».

Au Qatar, l’argent n’a pas jamais été une contrainte pour les grands projets que cet émirat a lancés - souvent avec succès - depuis plus de dix ans. Les gigantesques réserves de gaz permettent d’offrir des ponts d’or aux chercheurs de Georgetown, ou aux stars de CNN ou de la BBC, quand il s’est agi de lancer Al Jazeera en anglais.

Peu à peu, la « Cité de l’Education » de Sheikha Moza s’est donc imposée comme un centre régional pour les étudiants du Golfe. Malheureusement, une fois de plus, la France a manqué le train en marche.

Il y a quelques années, l’Insead (grande école de Commerce basée à Fontainebleau) a très maladroitement claqué la porte de la Qatar Foundation, après avoir montré un vif intérêt pour une installation sur place. Sheikha Moza en a gardé un souvenir amer. Quelques maladresses commises ensuite par certains de nos représentants sur place ou par des épouses de ministres n’ont pas arrangé les choses.

Lors de son passage mardi à Doha, Carla Bruni, qui préside une Fondation pour l’accès à l’éducation, a remis à Sheikha Moza « un document, dans le cadre d’une démarche informelle, qui souligne la disponibilité de quelques grandes écoles à venir s’installer dans la Cité de l’Education ». Parmi elles, HEC et l’Institut Pasteur.

Aujourd’hui, les relations personnelles nouées entre les deux premières dames de France et du Qatar permettront certainement d’éviter qu’on répète les erreurs du passé, préjudiciables à nos intérêts dans cette région du monde, où la manière compte aussi beaucoup dans l’approche des problèmes.

lundi 16 novembre 2009

Le classement de Shanghaï, étude mal menée, calcul mal fait

Le classement de Shanghaï, étude mal menée, calcul mal fait, par Jean-Charles Billaut, Denis Bouyssou, Philippe Vincke - Le Monde,16 novembre 2009

L'édition 2009 du désormais célèbre classement de Shanghaï est disponible depuis quelques jours. Comme chaque année, elle suscite de nombreux commentaires et réactions. En France, on se désole tout particulièrement de la faible performance de nos universités comparée aux grandes universités américaines ou britanniques. Mais quel crédit faut-il accorder à ce classement ? Après tout, nous sommes habitués à voir paraître régulièrement des classements des villes où il fait "le mieux vivre", des "meilleurs vins", des voitures les plus performantes, etc. Confrontés à de tels classements, on est partagés entre une légitime curiosité et un sentiment de malaise. Existe-t-il en effet une manière claire de définir la ville où il fait "le mieux vivre" indépendamment de l'âge, la situation familiale, les revenus, la culture de la personne à qui l'on s'adresse ? La question de la "meilleure université" au monde nous semble au moins aussi problématique.

Les premières questions à se poser avant d'analyser le classement de Shanghaï sont simples mais néanmoins fondamentales : "A qui ce classement est-il destiné ?", "A quoi ce classement doit-il et peut-il servir ?". A ignorer ces questions, on risque fort de prendre ce classement comme une "vérité" qui pourrait servir de base à des propositions d'actions, voire de réformes. Mais on a le droit de penser qu'un étudiant choisissant une université pour y effectuer un échange semestriel de type Erasmus, un chercheur en médecine désirant intégrer un groupe de recherche dynamique, un recruteur à l'affût de futurs cadres à haut potentiel, ou un ministre évaluant l'efficacité d'un système national d'enseignement supérieur n'utiliseront pas, ou plutôt ne devraient pas utiliser, les mêmes critères.

Le classement de Shanghaï semble offrir une réponse universelle à une question mal définie et qui n'a été posée par personne. Il ne dit pas à qui il s'adresse ni à quoi il peut servir. Dès lors, il suscite une aura mystérieuse qui n'est méritée en aucune façon. En dehors de la difficulté que nous venons de mentionner, ce classement souffre en plus de trois problèmes majeurs.

Tout d'abord, les entités évaluées ne sont pas définies de manière précise. Dans beaucoup de pays européens, l'organisation de l'enseignement supérieur est tributaire d'une longue histoire et l'organisation qui en résulte est complexe : on y trouve des universités mais aussi des grandes écoles et des organismes de recherche. Dans un tel contexte, ce qui doit compter comme une "université" ne s'impose pas de manière évidente et demande une connaissance fine du paysage institutionnel : le Collège de France, institution prestigieuse mais qui ne délivre aucun diplôme et n'a aucun étudiant, figurait dans les classements de Shanghaï de 2003 à 2005. De plus, nos institutions d'enseignement supérieur ont subi de nombreuses modifications au cours de leur histoire.

On sait qu'après 1968, l'université de Paris (comme beaucoup d'autres) a été découpée en 13 universités de moindre taille, ce qui devait en faciliter la gouvernance. Mais cette division est préjudiciable dans le classement de Shangaï dans lequel 5 des 6 critères utilisés sont des critères de comptage (prix Nobel, médailles Fields, articles référencés, chercheurs les plus cités) et sont donc directement influencés par la taille de l'institution. Un calcul simple montre que si on rétablissait l'université de Paris dans ses frontières d'avant 1968, on créerait une institution qui figurerait parmi les dix meilleures universités mondiales selon le classement de Shangaï. Aurait-on pour autant amélioré la capacité de notre pays à produire des recherches de très haut niveau ? Clairement non. Enfin, une part très significative de la recherche française se fait au sein d'organismes de recherche tels que le CNRS ou l'Inserm. Les recherches menées au sein de ces organismes ne contribuent pas à améliorer la position de nos universités dans le classement de Shangaï. Doit-on en conclure qu'il faut supprimer ces organismes et affecter leurs ressources et leur personnel aux universités ? En fusionnant les 13 universités parisiennes et en leur affectant le personnel et des crédits des laboratoires de recherche franciliens dépendant du CNRS ou de l'Inserm, on aboutirait à une institution qui serait en tête dans le classement de Shangaï… sans pour autant avoir augmenté le potentiel scientifique de notre pays et en ayant créé une organisation gigantesque dont la gouvernance serait clairement très problématique.

Mentionnons ensuite que les critères utilisés par le classement de Shangaï sont tous d'apparence "objective". Il suffit, nous dit-on, de compter les prix Nobel, les médailles Fields, les chercheurs les plus cités ou les articles référencés dans les bases de données. Mais le diable se cache dans les détails. Comment pondérer le prix Nobel de chimie de Marie Curie datant de 1903 par rapport au prix Nobel de physique d'Albert Fert reçu en 2007 ?

Que faire des prix Nobel attribués à des personnes travaillant dans des institutions n'existant plus, par exemple suite aux partitions intervenues après 1968 ? Est-il normal que l'appartenance d'Albert Fert à une unité mixte de recherche diminue de moitié la valeur de son prix Nobel pour son université (Le Monde, 27 août 2007) ? Est-il normal qu'un article publié dans la prestigieuse revue Nature ait plus d'impact dans le classement s'il est signé de douze auteurs plutôt que de deux seulement ? Est-il normal de tenir pour acquis que la science se divise "naturellement" en 21 catégories (dont 6 sont liées à la médecine et à la biologie) qui serviront à déterminer les chercheurs les plus cités ? Est-il normal de penser qu'un article d'économie doit avoir un poids deux fois plus grand qu'un article de chimie ? Derrière l'apparente objectivité se cachent un grand nombre d'options toutes plus ou moins contestables ou arbitraires. Comme les données utilisées ne sont pas rendues publiques, ce qui s'écarte sensiblement des règles de "bonnes pratiques" en matière d'évaluation, il est impossible non seulement à une institution de vérifier que les données la concernant ne sont pas erronées mais encore d'apprécier l'impact sur le résultat final de tous les éléments que l'on vient de mentionner.

Enfin, ce classement est établi annuellement. Mais on sait qu'une thèse de doctorat dure trois ans, que les contrats entre les universités et l'Etat sont quadriennaux, que la commission du titre d'ingénieur habilite les écoles d'ingénieurs pour des périodes de six ans. Même le très discutable impact factor des revues scientifiques est calculé sur une période de deux ans. Dans ces conditions, il est clair que la variation de la position d'une institution d'une année sur l'autre reflète bien plus vraisemblablement des effets dus au hasard (il est rare qu'une institution reçoive un prix Nobel tous les ans !) que de réels changements de tendance. De plus, la manière d'agréger l'information dans le classement de Shangaï à la propriété très curieuse de faire dépendre la position relative de deux institutions non seulement de leurs propres performances mais également de celles des institutions les mieux classées sur chacun des critères utilisés. Il semble dès lors sage de s'abstenir de commenter de telles variations !

Le classement de Shanghaï était – semble-t-il – très attendu par tout le monde, journalistes, étudiants, chercheurs et enseignants-chercheurs, présidents d'université, personnages politiques… comme s'il était universel et qu'il avait le pouvoir de s'adresser à tous. La moindre augmentation ou le moindre recul dans le classement donnent lieu à des commentaires des uns et des autres alors que ces changements ne doivent ni servir à s'enorgueillir ni à se sentir humilié. Il s'agit là seulement du résultat d'une étude mal menée, conduisant à un calcul mal fait, sur des données peu fiables et non vérifiables. Nos universités et nos organismes de recherche ne sont certainement pas les meilleurs du monde sur tous les critères possibles. Mais juger notre système d'enseignement supérieur et vouloir le réformer sur la base d'un tel classement serait néanmoins clairement une aberration.

Jean-Charles Billaut, Polytech'Tours, directeur du laboratoire d'informatique de l'université de Tours, président de la Société française de recherche opérationnelle et d'aide à la décision en 2006 et 2007.

Denis Bouyssou, CNRS-Lamsade et université Paris-Dauphine, directeur de recherche, président de la Société française de recherche opérationnelle et d'aide à la décision de 2000 à 2002.

Philippe Vincke, recteur de l'Université libre de Bruxelles.

Le classement de Shanghaï, étude mal menée, calcul mal fait

par Jean-Charles Billaut, Denis Bouyssou, Philippe Vincke
LEMONDE.FR | 16.11.09

L'édition 2009 du désormais célèbre classement de Shanghaï est disponible depuis quelques jours. Comme chaque année, elle suscite de nombreux commentaires et réactions. En France, on se désole tout particulièrement de la faible performance de nos universités comparée aux grandes universités américaines ou britanniques. Mais quel crédit faut-il accorder à ce classement ? Après tout, nous sommes habitués à voir paraître régulièrement des classements des villes où il fait "le mieux vivre", des "meilleurs vins", des voitures les plus performantes, etc. Confrontés à de tels classements, on est partagés entre une légitime curiosité et un sentiment de malaise. Existe-t-il en effet une manière claire de définir la ville où il fait "le mieux vivre" indépendamment de l'âge, la situation familiale, les revenus, la culture de la personne à qui l'on s'adresse ? La question de la "meilleure université" au monde nous semble au moins aussi problématique.

Les premières questions à se poser avant d'analyser le classement de Shanghaï sont simples mais néanmoins fondamentales : "A qui ce classement est-il destiné ?", "A quoi ce classement doit-il et peut-il servir ?". A ignorer ces questions, on risque fort de prendre ce classement comme une "vérité" qui pourrait servir de base à des propositions d'actions, voire de réformes. Mais on a le droit de penser qu'un étudiant choisissant une université pour y effectuer un échange semestriel de type Erasmus, un chercheur en médecine désirant intégrer un groupe de recherche dynamique, un recruteur à l'affût de futurs cadres à haut potentiel, ou un ministre évaluant l'efficacité d'un système national d'enseignement supérieur n'utiliseront pas, ou plutôt ne devraient pas utiliser, les mêmes critères.

Le classement de Shanghaï semble offrir une réponse universelle à une question mal définie et qui n'a été posée par personne. Il ne dit pas à qui il s'adresse ni à quoi il peut servir. Dès lors, il suscite une aura mystérieuse qui n'est méritée en aucune façon. En dehors de la difficulté que nous venons de mentionner, ce classement souffre en plus de trois problèmes majeurs.

Tout d'abord, les entités évaluées ne sont pas définies de manière précise. Dans beaucoup de pays européens, l'organisation de l'enseignement supérieur est tributaire d'une longue histoire et l'organisation qui en résulte est complexe : on y trouve des universités mais aussi des grandes écoles et des organismes de recherche. Dans un tel contexte, ce qui doit compter comme une "université" ne s'impose pas de manière évidente et demande une connaissance fine du paysage institutionnel : le Collège de France, institution prestigieuse mais qui ne délivre aucun diplôme et n'a aucun étudiant, figurait dans les classements de Shanghaï de 2003 à 2005. De plus, nos institutions d'enseignement supérieur ont subi de nombreuses modifications au cours de leur histoire.

On sait qu'après 1968, l'université de Paris (comme beaucoup d'autres) a été découpée en 13 universités de moindre taille, ce qui devait en faciliter la gouvernance. Mais cette division est préjudiciable dans le classement de Shangaï dans lequel 5 des 6 critères utilisés sont des critères de comptage (prix Nobel, médailles Fields, articles référencés, chercheurs les plus cités) et sont donc directement influencés par la taille de l'institution. Un calcul simple montre que si on rétablissait l'université de Paris dans ses frontières d'avant 1968, on créerait une institution qui figurerait parmi les dix meilleures universités mondiales selon le classement de Shangaï. Aurait-on pour autant amélioré la capacité de notre pays à produire des recherches de très haut niveau ? Clairement non. Enfin, une part très significative de la recherche française se fait au sein d'organismes de recherche tels que le CNRS ou l'Inserm. Les recherches menées au sein de ces organismes ne contribuent pas à améliorer la position de nos universités dans le classement de Shangaï. Doit-on en conclure qu'il faut supprimer ces organismes et affecter leurs ressources et leur personnel aux universités ? En fusionnant les 13 universités parisiennes et en leur affectant le personnel et des crédits des laboratoires de recherche franciliens dépendant du CNRS ou de l'Inserm, on aboutirait à une institution qui serait en tête dans le classement de Shangaï… sans pour autant avoir augmenté le potentiel scientifique de notre pays et en ayant créé une organisation gigantesque dont la gouvernance serait clairement très problématique.

Mentionnons ensuite que les critères utilisés par le classement de Shangaï sont tous d'apparence "objective". Il suffit, nous dit-on, de compter les prix Nobel, les médailles Fields, les chercheurs les plus cités ou les articles référencés dans les bases de données. Mais le diable se cache dans les détails. Comment pondérer le prix Nobel de chimie de Marie Curie datant de 1903 par rapport au prix Nobel de physique d'Albert Fert reçu en 2007 ?

Que faire des prix Nobel attribués à des personnes travaillant dans des institutions n'existant plus, par exemple suite aux partitions intervenues après 1968 ? Est-il normal que l'appartenance d'Albert Fert à une unité mixte de recherche diminue de moitié la valeur de son prix Nobel pour son université (Le Monde, 27 août 2007) ? Est-il normal qu'un article publié dans la prestigieuse revue Nature ait plus d'impact dans le classement s'il est signé de douze auteurs plutôt que de deux seulement ? Est-il normal de tenir pour acquis que la science se divise "naturellement" en 21 catégories (dont 6 sont liées à la médecine et à la biologie) qui serviront à déterminer les chercheurs les plus cités ? Est-il normal de penser qu'un article d'économie doit avoir un poids deux fois plus grand qu'un article de chimie ? Derrière l'apparente objectivité se cachent un grand nombre d'options toutes plus ou moins contestables ou arbitraires. Comme les données utilisées ne sont pas rendues publiques, ce qui s'écarte sensiblement des règles de "bonnes pratiques" en matière d'évaluation, il est impossible non seulement à une institution de vérifier que les données la concernant ne sont pas erronées mais encore d'apprécier l'impact sur le résultat final de tous les éléments que l'on vient de mentionner.

Enfin, ce classement est établi annuellement. Mais on sait qu'une thèse de doctorat dure trois ans, que les contrats entre les universités et l'Etat sont quadriennaux, que la commission du titre d'ingénieur habilite les écoles d'ingénieurs pour des périodes de six ans. Même le très discutable impact factor des revues scientifiques est calculé sur une période de deux ans. Dans ces conditions, il est clair que la variation de la position d'une institution d'une année sur l'autre reflète bien plus vraisemblablement des effets dus au hasard (il est rare qu'une institution reçoive un prix Nobel tous les ans !) que de réels changements de tendance. De plus, la manière d'agréger l'information dans le classement de Shangaï à la propriété très curieuse de faire dépendre la position relative de deux institutions non seulement de leurs propres performances mais également de celles des institutions les mieux classées sur chacun des critères utilisés. Il semble dès lors sage de s'abstenir de commenter de telles variations !

Le classement de Shanghaï était – semble-t-il – très attendu par tout le monde, journalistes, étudiants, chercheurs et enseignants-chercheurs, présidents d'université, personnages politiques… comme s'il était universel et qu'il avait le pouvoir de s'adresser à tous. La moindre augmentation ou le moindre recul dans le classement donnent lieu à des commentaires des uns et des autres alors que ces changements ne doivent ni servir à s'enorgueillir ni à se sentir humilié. Il s'agit là seulement du résultat d'une étude mal menée, conduisant à un calcul mal fait, sur des données peu fiables et non vérifiables. Nos universités et nos organismes de recherche ne sont certainement pas les meilleurs du monde sur tous les critères possibles. Mais juger notre système d'enseignement supérieur et vouloir le réformer sur la base d'un tel classement serait néanmoins clairement une aberration.

Jean-Charles Billaut, Polytech'Tours, directeur du laboratoire d'informatique de l'université de Tours, président de la Société française de recherche opérationnelle et d'aide à la décision en 2006 et 2007.


Denis Bouyssou, CNRS-Lamsade et université Paris-Dauphine, directeur de recherche, président de la Société française de recherche opérationnelle et d'aide à la décision de 2000 à 2002.


Philippe Vincke, recteur de l'Université libre de Bruxelles.

lundi 9 novembre 2009

Le Cnrs, première institution scientifique mondiale !

Le Cnrs, première institution scientifique mondiale !, sciences2, 3 novembre 2009

Selon le rapport 2009 du SCImago, le Cnrs est la première institution scientifique du monde.

SCImago est un groupe de recherche espagnol et portugais, qui se propose de réaliser des cartographies des activités de recherches. Son rapport annuel 2009 classe les meilleures universités et institutions de recherche mondiales et analyse leur performance pendant la période 2003-2007, suivant 5 indicateurs de production, collaboration et impact scientifique, qui se reposent sur les citations scientifiques.

Le rapport a été élaboré à partir de données de la base Scopus (plus de 16 millions de publications et 150 millions de citations) et comprend des institutions de recherche de 84 pays sur les cinq continents, groupées dans cinq secteurs de recherche : gouvernement, éducation supérieure, santé, industriel et autre.

La position du Cnrs au sommet de ce classement provient en premier lieu de son statut d'organisme national qui regroupe sous sa signature dans les revues scientifiques, outre ses 11 000 chercheurs, les plus de 15 000 universitaires et les milliers de thésards qui travaillent dans ses laboratoires, la plupart en situation de co-tutelle avec au moins une université.

C'est d'ailleurs pour cette raison - la concentration sous une signature unique - que l'on trouve ensuite sur la liste l'Académie des sciences chinoise, puis celle de Russie, avant de trouver l'Université de Harvard, Tokyo Daigaku, la Max Planck Gesellschaft, l'Université de Toronto, les Institut Nationaux de la Santé (USA), etc...

Il est assez piquant de souligner cette pôle-position alors que, depuis plusieurs années, les scientifiques doivent batailler pied à pied avec le gouvernement pour sauvegarder l'unité du Cnrs. Ainsi, son actuel contrat quadriennal résulte d'un affrontement assez dur.

Les responsables politiques et en particulier Nicolas Sarkozy (qui voulait réduire le Cnrs à une simple agence de moyens) et Valérie Pécresse, n'ont cessé de réclamer de la "visibilité" et de la "simplification" au système de recherche français, en se plaignant de sa "fragmentation".

Or, c'est contre eux et leur volonté de découper le Cnrs et d'en affaiblir la direction générale ou la relative autonomie vis à vis du pouvoir politique, que les scientifiques se sont mobilisés ces dernières années.

Finalement, les succès non négligeables de cette mobilisation, si l'on suit l'éclairage donné par ce classement, montre qu'ils ont réellement défendu l'intérêt général et non des revendications particulières.

Du coup, le récent discours "pro-Cnrs" de madame Valérie Pécresse apparaît plus comme un mea culpa que l'expression d'une pensée ayant guidé les décisions politiques. Mais on ne va pas s'en plaindre...

Université : séminaire alternatif à l'EHESS

Université : séminaire alternatif à l'EHESS, sciences2, 6 novembre 2009

Mercredi 4 novembre 2009, premier d'une série de séminaires de l'EHESS (Ecole des hautes études en sciences sociales) consacré au mouvement de protestation universitaire de l'an dernier.