Expérimentation et évaluation : leviers de l’innovation publique (partie 2)

Vous pouvez télécharger le PDF de l’ensemble du dossier à l’adresse suivante : https://frama.link/Czb2vM8e. Il contient les notes de bas de page absentes pour des raisons techniques des présents articles.

2. Tester et mesurer l’innovation publique

La pratique expérimentale répond à la nécessité pour les acteurs publics et privés d’évoluer « par “tâtonnement” pour pouvoir innover ». En 1970, déjà, Jean Boulouis notait qu’en matière de réforme administrative « la formule de l’expérience (…) s’est progressivement imposée au point d’acquérir la réputation et l’autorité d’une méthode ».  En s’organisant au sein d’un contexte d’exception, elle permet de « limiter l’incertitude et de gagner en souplesse  ». 

Toutefois, l’expérimentation n’est pas une politique publique mais bien « une méthode consistant à mettre temporairement en œuvre un dispositif afin, par une évaluation rigoureuse, d’en mesurer les effets au regard des objectifs poursuivis, pour éclairer la décision publique ». Si l’expérimentation est un pilier de l’innovation publique, l’évaluation en est donc un autre. 

Comme l’explique fort clairement le Vice-président Lasserre lors de sa conférence inaugurale du cycle d’étude sur « L’Evaluation des politiques publiques », les citoyens attendent de l’action publique qu’elle soit plus efficace : « il faut des résultats ». Aussi, la légitimité légale-rationnelle wébérienne tend-elle à s’estomper au profit d’une « légitimité d’exercice » dans laquelle la performance occupe une place particulière. 

L’évaluation, dans ce cadre, doit permettre de « déterminer la valeur d’une politique, en identifiant ses effets concret à l’aune des objectifs fixés par son auteur. Mais l’évaluation ne permettra réellement de mieux décider que si elle évite l’écueil de l’autojustification ou, inversement, de la critique partisane ». 

La réflexion à ce sujet, développée à partir des années 90 a permis d’isoler la présence de structures normatives régissant le fonctionnement des administrations écrit Rouban. Il ajoute :   

C’est cependant à travers la question de l’évaluation que l’on a le mieux perçu les limites de l’import-export de solutions organisationnelles “clé en main” comme les effets liés à la traduction des techniques managériales en techniques de gouvernement. Il est clairement apparu que la définition des normes de l’action administrative dépendait du positionnement institutionnel des évaluateurs et que l’évaluation elle-même consacrait un certain rapport de force autour de l’information disponible.

Or, l’évaluation doit être envisagée comme un outil de savoir participant de l’éclairage de l’ensemble des parties prenantes à la décision mais demeurant à l’orée du débat politique, du côté de la science. C’est pour cette raison, qu’il est impératif que l’évaluation repose sur une méthode, une temporalité et des données objectives. Une observation diachronique de cette thématique, conduit à considérer l’évaluation dans sa forme actuelle comme une composante essentielle mais tardive de l’action publique.

2.1. Circonscrire la démarche expérimentale

2.1.1. Un cadre juridique bien défini : normatif vs non-normatif

En matière de politiques publiques, l’expérimentation, en ce qu’elle « produit dans l’ordre juridique une série de discontinuités plus ou moins graves qui créent autant d’atteintes à la sécurité juridique et d’altérations aux principes sur lesquels se fonde l’ordonnancement des règles de droit » peut parfois nécessiter l’adoption d’un droit expérimental. Celui-ci repose sur le fondement des articles 37-1 ou 72 de la Constitution. Néanmoins, la démarche expérimentale ne peut être réduite aux seules actions conduites dans ce cadre. 

Ainsi, en droit, il est d’usage de distinguer les expérimentations normatives des autres types d’expérimentation. Les expérimentations normatives sont menées sur le fondement des articles 37-1 et 72 de la Constitution qui permettent « pour un objet et une durée limitée » au législateur et aux collectivités habilitées par ce dernier de déroger, si nécessaire, au principe d’égalité ainsi qu’à certaines exigences de sécurité juridique protégées par la Constitution. Cependant, en sus de l’impératif de limitation de son objet et de sa durée, l’expérimentation doit également être menée dans le respect des règles de compétences par les autorités normatives. 

« En revanche, écrit le Conseil d’Etat (CE), le recours à l’expérimentation ne doit porter que sur ce qui relève du pouvoir réglementaire de l’autorité expérimentatrice : lorsqu’une loi nécessite un décret d’application et ne prévoit pas de mise en œuvre expérimentale, un décret ne peut prévoir que l’application de la loi sera expérimentée, dans un premier temps, sur une partie du territoire national en attendant la réalisation d’une évaluation » (CE, 15/03/17, Ass., Bail à part, tremplin pour le logement, n° 391654, T.). 

Les expérimentations non normatives se déploient sans qu’il y ait besoin d’édicter une nouvelle norme juridique. Elles n’ont donc pas les articles 37-1 ou 72 de la Constitution pour fondement. On peut distinguer : 

  • les expérimentations techniques qui permettent de tester la pertinence d’une technologie ; 
  • les expérimentations sur le principe d’une mesure ou ses modalités de mise en oeuvre qui permettent l’adoption d’une réforme ; 
  • les expérimentations portant sur une dérogation au droit applicable ou consistant à créer un dispositif normatif neuf ; 
  • les expérimentations peuvent être menées avec ou sans échantillonnage. L’échantillonnage permet la comparaison (méthode contrefactuelle). Toutefois l’expérimentation est parfois menée sur l’ensemble du territoire ou du public concerné. 

En effet, de nombreuses expérimentations peuvent être réalisées sans déroger à une règle. De plus, l’objet du recours à cette pratique porte, bien souvent, plutôt sur l’action que sur la réglementation. Dès lors, il semble plus pertinent de faire porter l’analyse sur l’innovation plutôt que sur un cadre juridique qui pourrait être amené à évoluer si les résultats de l’expérimentation s’avéraient concluants.

2.1.2. Des exigences méthodologiques essentielles

La démarche expérimentale, en sus d’intégrer un cadre juridique clair, impose également d’adopter une méthode spécifique. En effet, l’expérimentation, en ce qu’elle peut porter atteinte au principe d’égalité ou toucher des domaines sensibles tels que la sécurité publique doit suivre une méthodologie rigoureuse, la fiabilité et la qualité des process déployés en dépend.

Aussi, il s’agit, pour le décideur, de ne pas employer la démarche expérimentale pour mettre en place un dispositif temporaire ou à la seule fin de faciliter l’adhésion à une réforme. Il est essentiel que l’expérience soit utilisée pour tester des mesures ou des modalités et qu’elle suive un protocole afin de dégager un résultat probant pouvant mener à des comparaisons fiables et pertinentes. C’est pourquoi il est essentiel, ab initio, de poser les hypothèses et objectifs de la démarche mais également de définir les critères de réussite. 

Les citoyens sont un rouage essentiel et leur association à une expérience qui les concerne est primordiale. De même, une attention particulière est à apporter lors de la constitution de l’échantillon représentatif et de la construction des indicateurs de suivi. Enfin, une expérimentation impose de mobiliser les moyens humains et matériels (techniques comme financiers) adéquats. 

Chronologie moderne de la conduite du changement

Entre 1940 et aujourd’hui, la conduite du changement a connu de notables évolutions passant de la théorie sociologique à une stratégie macro de transformation. David Autissier, Kevin Johnson et Emily Metais-Wiersch dans leur article « Du Changement à la transformation » paru en 2018 dans Question de management n°21, relèvent ainsi cinq grandes étapes : 

L’Approche sociologique de Lewin (1950)
Cette démarche est composée de trois grandes étapes que sont (1) Unfreeze – motiver au changement, envisager de nouvelles pratiques ; (2) Change – conduire le changement, modifier une conception de la réalité au profit d’une autre ; (3) Refreeze – consolider le changement, stabiliser les nouvelles pratiques et s’assurer de leur permanence. 

L’Approche instrumentale de Kanter (1970-1980)



L’Approche managériale de Kotter (1990-2000)


L’Approche collaborative et internalisée (2000 et suiv.) – ex. du changement agile (Autissier, Moutot)



L’Approche “transformation” pour une vision macro

La démarche expérimentale, incertaine, coûteuse, longue et réversible est une prise de risque qu’il est parfois difficile d’articuler avec les contraintes politiques et budgétaires. Il est impératif de saisir que la capacité de l’exercice à éclairer l’action publique ne peut être garantie qu’à la seule condition d’admettre à la fois sa rigueur méthodologique intrinsèque et le caractère hypothétique de son résultat. Dans l’étude susmentionnée, le Conseil d’Etat propose de décomposer le processus expérimental en cinq étapes clés : 

  • Envisager l’expérimentation et la décider. Il s’agit ici de définir les objectifs et si besoin de les hiérarchiser puis de recenser les données disponibles, d’identifier les incertitudes et l’hypothèse à tester. La choix de recours repose sur un bilan avantages/inconvénients (pertinence/coûts) et l’examen de la situation juridique afférente. 
  • Concevoir l’expérimentation. Cette étape permet d’estimer les moyens nécessaires à consacrer à l’expérience. Il implique d’une part d’identifier les acteurs et parties prenantes à mobiliser (externes et/ou internes) et, d’autre part, de définir le périmètre, l’échantillon (si besoin est), la méthode et les modalités d’évaluation de l’expérimentation. On peut distinguer l’expérimentation randomisée qui consiste à comparer deux groupes formés aléatoirement à partir d’un échantillon d’individus, des méthodes dites de « quasi-expérimentation »  qui repose sur la comparaison des effets d’une mesure sur deux échantillons aux caractéristiques similaires – ou de « différence des différences » qui s’attache à comparer la situation de l’échantillon avant et après l’expérimentation. Cette dernière est la méthode la plus simple et moins coûteuse. Il s’agit, ensuite, de constituer l’échantillon sur la base du volontariat et/ou par sélection. Celui-ci doit viser la représentativité et être stable dans le temps fixé par l’initiateur de l’expérimentation. En sus du calendrier, il convient également de définir les modalités d’évaluation de l’expérimentation. 
  • Le déroulement de l’expérimentation. Cette partie permet de définir les options de pilotage (création d’un comité de pilotage ? constitution d’un comité scientifique ?), d’associer les parties prenantes (organisations syndicales, agents, public cible / usagers du service), d’accompagner les services et de communiquer, en transparence et en continu. A l’occasion de l’expérimentation, l’administration peut faire le choix de fonctionner en mode projet. 
  • L’évaluation de l’expérimentation. Comme l’écrit le CE : « l’évaluation est consubstantielle à l’expérimentation. L’absence d’évaluation à l’issue de l’expérimentation prive celle-ci de sa raison d’être. » Aussi est-il essentiel de désigner un évaluateur ou un comité d’évaluation même si, dans le cas d’une expérience menée à petite échelle, une auto-évaluation sur « des critères de réussite déterminés en amont de son lancement si possible au moyen d’indicateurs chiffrés » peut être envisagée.
  • Décider des suites. Après un démarche expérimentale, l’autorité compétente peut choisir de généraliser/pérenniser la mesure, y renoncer ou prolonger la durée de l’expérimentation. 

Méthode, durée et évaluation sont les maîtres mots du processus expérimental en matière de politiques publiques. L’expérimentation est un moyen – articulable avec d’autres éléments d’innovation comme les start-up d’Etat ou le design des politiques publiques – d’adapter le service public aux besoins des usagers et parfois même de le construire avec eux. La co-conception voire le co-pilotage des politiques publiques est aujourd’hui une tendance lourde qu’il convient d’accompagner. Cette dernière correspond à une véritable et honorable aspiration démocratique et s’inscrit dans la droite ligne des demandes de transparence qui contribuent à accentuer la nécessité de définir et diffuser les moyens d’un « agir évaluatif » global en matière de politiques publiques. 

2.2. Définir et diffuser les moyens d’un agir évaluatif

2.1.1. Retour sur 30 ans d’évolutions

Dans les années 1960-1970, en France, priorité était donnée « aux fonctions de conception et de décision ». Les questions relatives à la mise en oeuvre et à l’évaluation des politiques publiques passaient au second plan dans l’agenda d’un l’Etat-providence à l’interventionnisme planificateur et prospectif. Comme l’explique Rouban, il ne s’agit point d’y voir ici un quelconque machiavélisme élitiste mais plutôt la volonté d’agir à la manière d’un commando (lequel serait alors non pas composé de soldats mais d’experts techniques). Ce positionnement associé au déséquilibre informationnel consécutif du centralisme, à la primauté de la légitimité administrative et à la domination du haut fonctionnaire de carrière ont induit un décalage entre le discours du pouvoir et la réalité de sa mise en oeuvre, entre la solution normative ou réglementaire et son intégration au sein du tissu social et industriel territorial. 

A partir des années 1980, dans la lignée des réformes institutionnelles européennes dites de « modernisation », la France remet en cause les « mécanismes de légitimation administrative sur lesquels s’appuie la Cinquième République ». En réponse à cette remise en cause et à la crise que connaît la fonction publique, le système de régulation évolue. Ainsi, au discours intégrateur de la technocratie se substitue celui, technophile, de la mise en oeuvre des politiques publiques et de leur soumission au prisme des lois du marché et du rendement. La politisation de la haute fonction publique s’accroît et le haut fonctionnaire « tend à perdre la légitimité que lui conféraient le monopole de l’expertise “neutre” et la traduction des demandes sociales ». Progressivement, son rôle de médiateur de l’administration se désagrège. 

Enfin, la décentralisation conduit à la fragmentation de l’agenda public et notamment, comme l’explique Albert Mabileau à une crise de légitimité territoriale républicaine de l’élu local. « Tout cela, écrit-il, parce que les structures socio-économiques ont transformé peu ou prou la nature du système local par son transfert d’un système politico-administratif à un système politico-économique. Dès lors l’instrument de la légitimation des élus n’est plus le contact personnel, mais beaucoup plus la communication. » En d’autres termes, le responsable public est devenu un gestionnaire légitimé par son action laquelle, pour être visible, doit non seulement être incarnée et mise en scène mais également innovante. Il est aujourd’hui d’autant plus un décideur et un réformateur qu’il doit exister sinon affranchi du moins autonome de la tutelle centrale. 

Entrepreneur de politiques publiques, l’élu doit rendre des comptes a fortiori parce que le haut-fonctionnaire qui l’accompagne incarne désormais moins un rôle d’intermédiaire pédagogue que d’expert-conseil ou de conseiller technique. La décentralisation multiplie les capacités et opportunités et les politiques de modernisation les impératifs d’actions. « Les conditions du jeu institutionnel ont donc changé et appellent à de nouveaux appareils normatifs » : la mise en oeuvre d’un appareil d’évaluation – en tant que processus méthodique de mesure et de preuve du bien fondé d’une réforme – en est un. 

Ainsi, en février 1989, le Premier ministre, Michel Rocard, note dans sa circulaire relative au « renouveau du service public » : 

il faut évaluer l’efficacité du service grâce à l’emploi d’instruments de gestion modernes (contrôle de gestion, comptabilité analytique adaptée aux administrations). L’utilisation de ces procédés, outre qu’elle permet une meilleure gestion interne, facilite le contrôle externe en lui fournissant des repères objectifs. [L’évaluation doit être] capable d’assurer, dans les meilleurs conditions d’équités et d’efficacité, les indispensables missions de garants des valeurs républicaines, de défenseurs de l’intérêt général et de promoteurs du progrès économique et social. 

A sa suite, le rapport Viveret évoque pour la première fois le « devoir d’évaluation » et le décret du 22 janvier 1990 donne naissance au Comité interministériel de l’évaluation (CIME), au Fonds national de l’évaluation et au Conseil scientifique de l’évaluation (CSE). Au début des années 2000, le législateur crée les Missions d’évaluation et de contrôle (MEC) et Missions d’évaluation et de contrôle de la sécurité sociale (MECSS) afin d’accompagner la mise en oeuvre des lois organiques afférentes (loi organique relative aux lois de finances LOLF et loi organique relative aux lois de financement de la sécurité sociale LOLFSS). 

En 2003 et en 2008 les réformes constitutionnelles consacrent la logique de l’évaluation notamment via l’expérimentation normative, le renforcement du rôle de la Cour des comptes, la création d’une mission d’évaluation dévolue au Parlement et d’une au Conseil économique, social et environnemental en 2010. Néanmoins, malgré ces indéniables avancées, la dynamique de l’évaluation publique en France peine à s’installer en tant qu’instrument démocratique au service de la décision publique. 

En effet, le paysage de l’évaluation publique, demeure éclaté et trop mouvant.  De plus, « le temps long de l’évaluation s’accorde mal aux temps politique et électoral et la légitimité des évaluations est régulièrement fragilisée par le manque apparent d’objectivité et de neutralité de leurs auteurs ». Enfin, au sein même de la question de l’évaluation des politique publique demeure le concept anglo-saxon d’accountability. Or, celui-ci « tend à supplanter la légitimation globale propre à l’Etat jacobin » et, ce faisant, à induire un défaut de cohérence interne : l’accountability prône des valeurs et des principes qui tendent à entrer en conflit avec l’organisation institutionnelle hiérarchique hexagonale. 

Difficile, compte-tenu de cet état de fait, de définir clairement l’évaluation et ses objectifs : celle-ci semble encore en « quête d’identité ». Dès lors, il apparaît nécessaire de diffuser une culture de l’évaluation méthodique, participative, transparente et transversale dans toute la société et pour ce faire de définir « une nouvelle conception de la performance publique » distincte de l’approche budgétaire bien « qu’intégrant la nécessité de l’équilibre global des finances publiques ».

2.2.2. Méthodes d’évaluation des politiques publiques (EPP)

Dans son discours du 16 octobre 2019, le Vice-président Lasserre note que « l’évaluation ne doit pas être un instrument du pouvoir : elle doit au contraire s’inscrire pleinement dans le processus démocratique pour nourrir le débat public (…) ». Une méthode stricte mise au service d’un positionnement institutionnel clair permettent de prévenir les soupçons de partialité mais également d’assurer la traçabilité, la transparence et donc la légitimité de l’évaluation. C’est pour cette raison que « la tentation de l’auto-évaluation doit être écartée et l’emprise du pouvoir exécutif sur les activités desserrée ».  

Considérations méthodologiques sur l’EPP 

Selon les objectifs poursuivis, différentes méthodes sont mobilisables : L’analyse évaluative se construit ensuite par étapes successives :
Source : Crovella, Milet et Paul, L’évaluation des politiques publiques: Comprendre et pratiquer, 2016

Différents contributeurs peuvent alors y être associés : 
Source : Cadrage méthodologique de l’évaluation des politiques publiques partenariales, IGA IGF IGAS, 2012

Enfin, il est d’usage de distinguer trois types d’évaluations selon leur temporalité : L’évaluation ex ante qui sert de point de comparaison entre l’avant et l’après ; L’évaluation in itinere qui permet de s’assurer du bon déroulé d’un programme ; L’évaluation ex post qui tire les conclusions d’un dispositif en vue d’améliorer l’efficience du prochain. 

Dans la récente histoire de l’évaluation des politiques publiques (EPP), la « France a eu tendance à concentrer les efforts sur l’évaluation ex ante et à négliger les évaluations in itinere et ex post » et le Vice-président du Conseil d’Etat d’alerter : 

Les études d’impact (…) se révèlent trop souvent privées de portée pratique dès lors qu’elles ne sont pas systématiquement suivies par des évaluations subséquentes. Leur potentiel pourrait être mieux exploité si elles ne se résumaient pas à un exercice formel qui requiert parfois, il faut bien le dire, des dons de Pythie, mais incluaient au contraire, d’une part des études d’options (…) d’autre part une identification plus claire des objectifs poursuivis afin de fixer le cadre de l’évaluation ex post. (…) Mais ce sont surtout les évaluations ex post qui doivent être généralisées, car c’est à ce stade seulement que la divination se transforme en faits et qu’il est réellement possible de tirer les conséquence des éventuelles défaillances des politiques publiques. (…) Or les évaluations ex post concernent trop souvent une politique dans sa globalité plutôt qu’elles n’analysent les effets des différents dispositifs qui la mettent en oeuvre. 

A cet impératif d’évolution temporel et méthodologique s’associe l’impérieuse nécessité de considérer les nouvelles technologies et les citoyens comme moyens et acteurs à part entière de l’évaluation contemporaine. 

En effet, « les travaux d’évaluation ont eu peu recours à des outils innovants de collecte, d’analyse ou de représentation des données (données massives, analyse prédictive par exemple) ». Or, la France s’est engagée depuis 2014 dans le mouvement mondial d’ouverture des données publiques (Open Data). La loi pour une République numérique, l’une des plus ambitieuse d’alors, a inversé la norme : la non publication d’un jeu de donnée publique est devenu l’exception et sa diffusion la règle. Même si de nombreux freins d’accès demeurent notamment pour les citoyens, les administrations doivent être en mesure de réutiliser ces données mais, trop souvent, ces dernières ne semblent pas avoir pris la mesure du changement et se contentent d’analyses descriptives. Le big data, cette massification de données qui retracent en temps réel les comportements observé en temps réel, permet bien davantage : non seulement « les données peuvent être mobilisées à chacune des étapes de l’évaluation » – ce qui n’est pas sans effet sur la capacité d’ajustement – mais un traitement algorithmique adéquat permet également de passer de l’analyse descriptive à une analyse prédictive voire prescriptive. 

Les préoccupations des citoyens, leurs nouvelles exigences d’accès et de participation au débat public doivent également être prise en compte au sein des processus d’EPP. Comme le dit fort bien Aline Blanc-Tailleur, administratrice de la Société Française de l’ Évaluation

L’expertise d’usage [des citoyens] doit être croisée avec l’expertise technique que ce soit celle des élus et/ou des services. Car il s’agit de deux expertises complémentaires : les citoyens sont davantage calés sur la réalité du terrain mais les acteurs publics apportent les questions d’utilité, de cohérence et d’efficience auxquelles doit aussi répondre une évaluation.

En amont, cela permettrait que l’évaluation réponde effectivement aux questions que se posent les citoyens. « A cet égard, les procédures d’évaluation gagneraient sans doute à être mieux articulées avec celles des différents types de concertations sociales et citoyennes. » Pendant l’évaluation, une composition plurielle de l’organisme évaluateur permettrait de prévenir « le risque d’un renforcement de la concentration technocratique des outils de la décision, et corrélativement de renouer la confiance (…) entre science et politique ». En aval, enfin, la publication, en transparence, des résultats est la condition sine qua non de leur appropriation active par le citoyen. Aussi, comme pour les données publiques, il apparaît nécessaire de s’assurer de la lisibilité de ceux-ci.  

Modalités d’association du citoyen au processus d’évaluation des politiques publiques

La participation en évaluation, explique Gaëlle Baron, peut s’apprécier à l’aune de deux critères : la diversité des participants (ou largeur de la participation) et la profondeur de la participation portant sur le degré d’implication des participants. Elle distingue ainsi plusieurs familles d’évaluation participative : 

l’évaluation co-produite qui associe les acteurs en charge de la définition et de la mise en oeuvre d’un programme à la coproduction d’une grande partie parfois même de l’ensemble des étapes de son évaluation ; elle a pour objectif de garantir son utilisation par les acteurs de la politique évaluée; 

l’évaluation pluraliste qui associe une grande diversité des parties prenantes mais seulement en amont et en aval ; elle a pour objectif de prendre en compte la diversité des appréciations sur un programme public et de parvenir à une appréciation du programme négociée entre ces différents points de vue; 

l’évaluation émancipatrice qui associe tous les porteurs d’intérêt à la totalité des phases de l’évaluation ; elle a pour objectif de donner les moyens aux bénéficiaires d’une action publique d’acquérir de la connaissance de façon à se prendre en charge durablement (empowerment). La position du citoyen à l’évaluation d’une politique publique diffère selon qu’il est la cible de cette politique (public-usager) ou non (public-citoyen). S’ils sont membres d’associations ou représentants de corps intermédiaires, ils sont considérés comme « citoyens-organisés » et plutôt intégrés à des comités de pilotage. 

Le Conseil scientifique de l’évaluation distingue trois méthodes d’évaluation participative que sont  les enquêtes réalisée à l’appui de questionnaires, le suivi d’un panel, l’entretien. 

A celles-ci s’ajoutent la pratique des conférences de consensus, qui consistent en un dialogue public entre un panel formé et des experts, des jurys citoyens – pour lesquels des individus tirés au sort travaillent sur des recommandations de politiques publiques – et des consultations citoyennes qui visent à obtenir des contributions libres. 

Toutefois, l’évaluation participative si elle permet de construire un jugement évaluatif à partir d’une multiplicité d’opinions n’est pas exempte du risque d’une vision partielle des enjeux. De plus, si elle améliore l’adhésion des acteurs et contribue à la construction de décisions collectives, l’évaluation participative peut pâtir de l’incompétence des participants, de phénomènes de domination voire d’une institutionnalisation des citoyens-organisés qui risquent alors d’être assimilés par les « vrais citoyens » à la technostructure. Cet état de fait peut aboutir à des statu quo, à des solutions frileuses ou à des choix totalement étrangers aux préoccupations de la « majorité silencieuse » et in fine décrédibiliser le processus même. 

Enfin, si le coût d’une EPP participative peut sembler compensé par les coûts évités liés au retard et blocages engendrés par un processus imposé, les bénéfices supposés demeurent difficilement quantifiables. 

Il apparaît donc essentiel d’une part, de systématiser l’évaluation dans le cadre d’une expérimentation et, d’autre part, de renforcer les liens entre évaluation et décision. Il en va de l’efficacité et de la légitimité des pouvoirs publics car, comme le disait Michel Rocard, « il ne peut y avoir ni autonomie sans responsabilité, ni responsabilité sans évaluation, ni évaluation sans conséquence ». Si l’administration a besoin d’innover et les politiques publiques d’être modernisées, aucun changement ne pourra se faire sans que les décideurs élus et fonctionnaires ne prennent, en conscience, leur juste part de responsabilité. 

Retrouvez la partie 1 : https://pmbonnaud.fr/2020/06/26/experimentation-et-evaluation-leviers-de-linnovation-publique/