Alain BOUVIER sur l'évaluation du système éducatif


Que vaut notre système éducatif ?

Pourquoi est-il si difficile, en France, d’avoir une réponse à la question pourtant naturelle : que vaut notre système éducatif ?

S’il est une route couvertes de roses, celle de l’évaluation des politiques publiques d’éducation doit, elle, chercher sa voie au milieu de ronces, d'orties et de chardons, parfois se perdre dans les sables du désert et surtout se noyer dans l’hypocrisie générale. Quelles questions taboues lui font obstacles ?

Une histoire de l’évaluation relativement récente

S’inspirant de modèles étrangers (Suède, Grande-Bretagne, USA…), le Parlement français récemment élu s’apprête à prendre des mesures pour renforcer son efficacité en matière d’évaluation de politiques publiques. En particulier, il envisage de créer en son sein, en trois étapes, un « office d’évaluation des lois ». Ilmarquera cela en organisant en 2019 un « Printemps de l’évaluation ».

À n’en pas douter, à terme, cela impactera le secteur de l’éducation car rien ne dit qu’il en aille différemment pour lui que pour d'autres domaines de l’action publique comme, par exemple, la santé.

Dans notre pays, la politique publique d’éducation relève du gouvernement et du Parlement. Son évaluation également, avec pour le Parlement un appui éclairé de la Cour des comptes qui s'est nettement accentué depuis la réforme constitutionnelle de 2008 (article 24).

Somme toute, en France, l’histoire de l’évaluation des politiques publiques d’éducation, bien que relativement récente, connait déjà plusieurs étapes.

La Direction de l’évaluation, de la prospective et de la performance

Si l’on met à part les inspections générales qui, de tradition, ont longtemps fait plutôt de l’audit, le point de départ majeur remonte à René Monory lorsqu’il découvrit avec stupéfaction que le ministre ne disposait pas d’instrument pour le pilotage de son action. Pour y remédier, il créa en 1987 la Direction de l’évaluation et de la prospective (DEP), devenue plus tard la Direction de l’évaluation, de la prospective et de la performance (DEPP) sous l’influence de la culture de la LOLF, une loi longuement préparée, votée en 2001 et appliquée à partir de 2006[1].

Dirigée par des personnes de grand talent comme Jean-Pierre Boisivon, Claude Thélot, Jean-Richard Cytermann ou Catherine Moisan, cette direction est devenue un robuste outil largement reconnu, fournissant régulièrement au ministre et à son administration, aux pouvoirs publics, aux élus, aux médias, à la société civile, aux chercheurs et à tous les acteurs concernés, de solides données statistiques sur les sujets d’importance.

Que fallait-il de plus ?

À l’instar de nombreux pays développés, le nôtre avait à gagner de disposer d’une instance d’évaluation indépendante du politique (mais redoutée de tout ministre) et de la technostructure, pour éclairer la société dans son ensemble sur les questions scolaires, idée qui fit son chemin dans les années 1990. Une telle instance doit faire parler les données existantes, les analyser, les critiquer, mais aussi en chercher d’autres sur les points restés dans l’ombre des statistiques officielles. Elle peut aussi mettre en doute les méthodologies employées par les uns et par les autres pour leurs divers travaux.

Ainsi fut créé, par un décret en 2000, le premier Haut conseil de l’évaluation de l’école (HCEE), d’abord présidé par Claude Thélot, puis par Christian Forestier.

Alors qu'il avait rapidement et bien rempli sa mission (nous le verrons), le mal français allait le frapper ! Au fil des changements de majorité politique il sera, à deux reprises, remplacé par une autre instance en 2005, puis en 2013, suite au vote de deux lois.

Aujourd’hui, le Parlement, insatisfait, nous verrons pourquoi, repose la question de l’instance d’évaluation de politique publique d’éducation nécessaire pour la Nation.

Faisons un pas de côté

Pour prendre un peu de recul tout en restant en France, on peut regarder l’enseignement supérieur où des évolutions parallèles se sont faites, mais en lien avec les pratiques des grands pays développés.

Les universités françaises attendent des évaluations externes qu’elles leur permettent de se situer par rapport à leurs prestigieuses homologues étrangères, principalement en termes de recherche et de plus en plus d’accès des étudiants aux emplois hautement qualifiés. Elles articulent les évaluations externes internationales et nationales avec leurs autoévaluations et leurs démarches qualité, au moins pour celles, en nombre croissant, qui en pratiquent.

Les évaluations doivent aussi éclairer les pouvoirs publics et la Conférence des présidents d’universités pour leur permettre de faire de la prospective et arrêter des stratégies de développement collectif.

Lors de la négociation des contrats des universités, les évaluations doivent être crédibles aux yeux des puissants lobbies disciplinaires (médecine, droit…), ainsi que de la société civile, des médias, des conseils régionaux, du monde économique et des étudiants. Ces derniers font leurs choix d’établissements en croisant différents paramètres trouvés sur des sites, intégrant la facilité d’accès à des emplois (avec un vif intérêt pour l’international, l’innovation, le numérique, le monde de l’entreprise…) et surtout les niveaux de rémunération auxquels ils conduisent. Les métiers les plus attractifs aujourd’hui ne sont plus ceux qui l’étaient il y a quinze ans.

Pour l’enseignement supérieur, les deux récents Hauts conseils[2] qui se sont succédé ont renforcé leur réseau d’experts français et étrangers et surtout raffiné leur méthodologie (formalisée et publique), ainsi que leurs outils. Leur indépendance est patente et ils disposent d’un code de déontologie qu’ils respectent. La Conférence des présidents d’université exerce une grande vigilance sur ces sujets sensibles.

La situation de l’enseignement supérieur est particulière : en plus des écoles d’ingénieurs et des institutions de recherche, il n’existe qu’un petit nombre d’universités (75), autonomes et souvent puissantes. Rien de tel pour l’enseignement scolaire avec ses près de 60 000 micro unités que sont les écoles et les établissements secondaires. La comparaison s’arrête donc là.

Un patchwork d’évaluations dans l’enseignement scolaire

L’enseignement scolaire ne souffre pas du manque d’évaluations, mais de leurs liens à l’exécutif, ainsi que de la pesanteur des processus de décision de l’action publique, freinée par la rigidité de la lourde technostructure.

Les rapports des inspections générales répondent à une commande du ministre. Ils lui sont destinés et ne sont publiés qu’avec son autorisation. Cela explique que ces textes soient souvent compassés et peu percutants car leurs rédacteurs ne veulent pas courir le risque fréquent de les voir rester dans un placard, au moins jusqu’à l’arrivée d’un nouveau ministre qui se fait un plaisir de rendre publiques les études placardisées par son prédécesseur. Dans mon dernier livre[3], j’ai donné des chiffres sur quatre décennies.

Plus redoutable encore, l’autocensure fonctionne à plein régime, chaque ministre sachant comment l’entretenir, et cela marche parfaitement !

S’ajoutent aux rapports des inspections générales, les nombreuses productions de la DEPP. Elles sont publiques, mais leur ampleur[4] tient elle aussi à la volonté du ministre : rien de plus naturel puisque c’est une direction ministérielle…

De plus, leur technicité et l’abondance des données fournies les rendent lisibles des seuls spécialistes, difficilement des médias et encore moins de la société civile. Ce ne sont pas des outils de communication grand public, sauf pour quelques documents qui mettent en évidence des données nouvelles allant à parfois l’encontre d’idées reçues, ce que repèrent les journalistes friands de telles informations.

Observons encore une curiosité française : une direction, la DGESCO, fait ses propres évaluations ! Il est surprenant de voir un donneur d’ordres opérationnel évaluer lui-même les actions qu’il a décidées et mises en place, attitude typiquement bureaucratique et centralisatrice. Question d'éthique, ce serait inenvisageable dans la majorité des pays démocratiques.

Non seulement il manquait de la cohérence dans ce paysage bigarré, fait de bric et de broc, mais les analyses étayées faisaient défaut et surtout les nécessaires jugements de valeurs, essence de l’évaluation à proprement parler.

Évidemment, ce n’est pas à une direction ministérielle de le faire puisque, de classiques raisons déontologiques exigent de ne pas être juge et partie. Une direction ministérielle peut y contribuer, mais seulement à la demande expresse, transparente et bien cadrée des évaluateurs patentés.

Le premier Haut conseil à l’évaluation pour l’enseignement scolaire

Un changement d’importance s’est produit en 2000. Faut-il y voir une conséquence de la première publication des résultats de l’enquête internationale PISA qui arrivait alors ? Oui, sans doute. De timides et lentes évolutions culturelles allaient alors s’amorcer en France.

En moins de 20 ans, il y aura trois instances successives chargées officiellement de l’évaluation du système éducatif et déjà une nouvelle mouture pourrait s’annoncer ; nous saurons dans quelques semaines ce qu’il adviendra.

Ainsi, le Haut conseil d’évaluation de l’école (HCEE) créé en 2000 le fut à une époque où, sans disposer du moindre élément de preuve à l’appui, beaucoup de Français croyaient encore naïvement en un mythe. Ils répétaient à satiété que nous avions le meilleur système éducatif au monde et qu’il était attentivement observé par les autres pays rêvant de nous imiter.

Le choc allait être rude à l’annonce des résultats de la première enquête PISA ! Il nécessitera deux décennies pour être digéré. Et encore : l’est-il vraiment aujourd’hui ? La publication des enquêtes internationales, les unes après les autres[5], ajoute de nouvelles secousses… pas nécessairement suivies d’effets en France. Bureaucratie, quand tu nous tiens !