Le Bien commun au coeur de la décision publique: Méthodologie

Partager cet article:
Print Friendly, PDF & Email

Loading

Dans le précédent chapitre, nous avons vu en quoi le Bien commun devait être à la source de la décision publique. Pour ne pas en rester au stade de l’incantation – et d’une probable récupération – il faut définir une méthode de prise de décision. L’approche développée ici est celle de la dynamique des systèmes complexes: une décision publique est caractérisée par la production de nombreuses externalités (effets dérivés désirables et indésirables) et donc de comprendre le système dans lequel elle prend place. Prendre en compte toute cette complexité nécessite un large débat public qui prenne en compte toutes les dimensions du choix. Contrairement à la pensée dominante qui soutient que les décisions complexes doivent être prise par un cercle restreint d’experts, je montre ici, en m’appuyant sur les avancées dans le pilotage des systèmes complexes, que plus une décision est complexe plus elle nécessite de démocratie directe. Je rejoins ici les travaux d’Etienne Chouard en y introduisant les sous-jacents scientifiques et méthodologiques.


La prise de décision publique pour le Bien commun

« On ne peut trancher les dilemmes sociaux qu’à travers des processus de choix public fondés sur la participation, le dialogue et les débats ouverts. Ces débats mettent en jeu les fins ultimes, mais aussi les moyens pratiques et, de façon plus décisive encore, les procédures à travers lesquelles ces moyens et ces fins sont évalués. Le pilotage unilatéral, y compris s’il est le fait du meilleur des experts, ne saurait en soi constituer une solution »

Amartya Sen, « L’économie est une science morale »

En 2000, le Premier ministre Lionel Jospin, en installant la commission de scientifiques chargés de donner un avis sur le développement des OGM avait déclaré « ma décision suivra celle de cette commission ». Dans un article du journal Les Echos du 8 novembre 2000, intitulé “ Lettre ouverte d’un scientifique aux politiques ”, Jean-Jacques Duby, le président de la commission, lui répondit :

“Ne nous demandez pas de prendre des décisions à votre place… La mission des scientifiques est de dire l’état des connaissances. Vous pouvez éventuellement leur demander leur avis sur les conséquences des décisions que vous envisagez, mais c’est à vous, politiques, et à vous seuls, de décider. Sinon vous demandez aux scientifiques de faire une chose pour laquelle ils n’ont pas été formés, à laquelle leur métier ne les a pas préparés, pour laquelle ils n’ont pas de légitimité. “

Cet incident illustre ce que nous avons appelé la crise du modèle classique de la décision publique. Le modèle classique de la décision publique repose sur le désir d’entreprendre des projets ou de prendre des décisions de manière rationnelle c’est-à-dire ordonnée, cohérente et finalisée vers des objectifs clairs. Grâce a une information abondante et riche, l’analyse permet d’élaborer une gamme d’options et de choisir le cheminement optimal en fonction des objectifs visés. Dès lors, l’élaboration des programmes et des politiques découle des moyens nécessaires pour bien mettre en œuvre la solution optimale. Pour le Premier ministre Lionel Jospin, il était évident que la réponse à la question du « comment » de l’expertise suffisait à fonder la décision politique du « quoi ».

Ce modèle rationnel est en réalité très limité car le décideur fait face à des évènements turbulents, des surprises désarmantes, et des effets contre intuitifs. La complexité émergente et dynamique crée une situation caractérisée par un haut niveau d’incertitude et d’indétermination. Les interactions entre les parties et les facteurs conduisent à des carrefours et des bifurcations imprévues. Des effets de non- linéarité apparaissent dont les évolutions sont difficiles à prévoir.

B. 1. Vers un nouveau modèle de la décision publique

Décider dans un système complexe ouvert ne peut se résoudre au choix de la solution optimale car elle n’existe pas. La prise de décision, au contraire, doit être pilotée en temps réel. C’est-à-dire que des décisions successives doivent être prises sur la base d’hypothèses dont on validera la pertinence en fonction de leurs effets, les feedbacks.

L’obligation de piloter afin de contrôler les risques et les opportunités émergentes exige des efforts accrus de prévision, de scénarisation et d’accompagnement. De plus, des décisions publiques prise sous l’emprise du positivisme – ce qui est souvent le cas compte tenu du poids de la profession des économistes néoclassiques dans l’inspiration des décisions publiques – peuvent créer ou amplifier les problèmes. L’ouverture des frontières et la perte de la capacité de régulation des services publics peuvent contribuer à transformer ce qui n’aurait pu n’être au départ que des phénomènes globalement connus et modélisables, en processus à caractère stochastique difficilement pilotables. La « maladie de la vache folle » n’aurait certainement pas pris cette ampleur sans la décision du gouvernement britannique de réduire drastiquement les effectifs des services vétérinaires et l’ouverture des frontières européennes aux importations de viande bovine britannique.

Dans le modèle classique de la décision publique :

  • Les phénomènes sont prévisibles : les connaissances scientifiques et le calcul statistique permettent de prévoir les phénomènes dans des marges d’incertitude évaluables et acceptables.
  • L’expérience passée permet de définir les « bonnes pratiques », le futur est la continuation du cours général du progrès technique et les nouveaux problèmes ont un caractère uniquement incrémental et peuvent se résoudre par un gain supplémentaire de connaissances.
  • Le décideur rationnel peut parvenir à la « bonne décision » : la rationalité scientifique et technique a ses propres lois dont l’observation rigoureuse permet de parvenir à une solution incontestable.
  • Le débat public est dès lors une source de perturbation : il se résume à un affrontement idéologique entre partisans et adversaires du progrès technique.

Le débat sur le principe de précaution autour des crises de sécurité sanitaire est à cet égard illustratif. Dans une épistémologie positiviste, si la science ne parvient pas à démontrer une absence de danger, le principe de précaution se transforme en principe d’abstention, selon la formule du commissaire du gouvernement Legal devant le Conseil d’Etat (avril 1993) : « en situation de risques, une hypothèse non infirmée devrait être tenue provisoirement pour valide même si elle n’est pas formellement démontrée ». A l’opposé, dans une épistémologie non positiviste, il s’agira de « prendre distance vis-à- vis du concept de preuve scientifique, que la preuve intervienne à charge ou à décharge » (Godard, 1999). Dans un monde non ergodique la science n’est pas plus capable d’apporter la preuve certaine de l’absence de risque que d’en apporter la certitude.

Dans une optique évolutionniste, la précaution ne conduit pas à l’abstention mais au développement de la recherche pour une meilleure appréhension du risque. Il s’agit d’augmenter la base de connaissance épistémique qui permettra de réviser les croyances, raisonnables, irrationnelles ou scientistes, sur lesquelles s’est fondée la décision initiale. Cela conduit à ne pas prendre, face à l’incertitude de décisions irréversibles mais uniquement des décisions révisables d’autorisation ou d’interdiction. Pour apprécier la notion de « décision irréversible », on peut enrichir la notion utilitariste classique de « liberté de choix » par l’approche par les capacités d’Amartya Sen : l’irréversibilité est ce qui porte atteinte de manière significative aux capacités de choix dans le futur. Aussi, « au lieu de représenter une solution au problème de l’incertitude, le principe de précaution œuvre à le faire reconnaître par la société et à maintenir de façon obstinée cette incertitude comme question à ne pas éluder » (Godard, 1999).

Le principe de précaution n’est donc pas un moyen pour évincer la décision politique mais, bien au contraire, pour la restaurer autour de la notion de prise de risque acceptable par la société. Cela interroge directement le rapport entre l’expert et le politique. Il s’agit de ne pas confondre la question instrumentale du « comment agir en fonction d’un objectif et au regard d’un risque », qui est du ressort de l’expert, avec la question politique « cet objectif est-il pertinent ?», une réponse positive à la première pouvant induire une réponse positive à la seconde.

Le débat doit alors quitter celui de l’alibi de l’expertise technique pour revenir sur celui de la nature du problème. Les arts pratiques de la décision publique à développer ici doivent viser à conjuguer la connaissance savante et la connaissance profane. Comment le citoyen peut-il s’approprier l’information scientifique pour formuler le problème ? Il faut ici distinguer expert et expertise. Olivier Godard donne une définition large de l’expertise qui désigne « les détenteurs de savoirs spécialisés qui ne sont pas de connaissance commune » (2001). Mais dans cette confrontation, hormis supposer que l’expert est une sorte de moine soldat du débat public démocratique, l’expert est aussi un citoyen avec ses enjeux propres et son système de croyance. Ce qui pousse Michel Callon à conclure à « la fin de l’expert et l’irrésistible ascension de l’expertise » (Godard, 2001) comme pratique sociale de la confrontation des savoirs. La nécessité de l’approche pluridisciplinaire de problèmes complexes comme ceux touchant aux crises sanitaires fait vite sortir les experts de leur champ d’expertise, et comme le note Olivier Godard « plus un expert est éloigné d’une spécialité, plus il tend à durcir les contrastes dans la vision de l’état des connaissances de cette spécialité. » La conséquence peut être de « produire une certitude trompeuse à travers la solidification artificielle de connaissances incertaines ».

Eviter cette « solidification artificielle de connaissances incertaines » requiert de procéder par boucles heuristiques d’apprentissage. Essayons, pour conclure, de tracer les contours d’un tel processus.

2. Les points saillants d’un nouveau modèle de décision publique

Dans notre étude sur les nouveaux enjeux et processus de la décision publique (Rochet et Miller 2001), nous avons, à partir de quatre études de cas, fait ressortir les points saillants d’un nouveau modèle de décision publique :

  • La décision publique doit et peut évoluer vers une décision complexe où la participation du public a une réelle valeur ajoutée du point de vue de la pertinence intrinsèque de la décision. C’est en outre une source de légitimité incontournable et il serait irresponsable de n’en faire qu’un principe de « communication », ou de « pédagogie » qui n’est bien souvent qu’un nouveau nom pour « propagande » afin de faire passer des solutions définies à l’avance.
  • Les compétences pour faire fonctionner ces nouveaux modèles décisionnels, malgré la richesse des expériences menées, sont encore lacunaires tant chez les fonctionnaires que chez les élus. Un effort considérable de construction et de transmission de compétences est à entreprendre, qui devra se traduire par une révision de la formation initiale des fonctionnaires et une action systématique de formation des fonctionnaires confrontés à la prise de décision complexe.

Nous avons pu approfondir ces principes au cours de la controverse socio-technique expérimentale sur la maladie de la vache folle dont j’ai été le conseiller à la Cité des sciences. Nous avons adopté un processus constructiviste permettant de croiser savoirs scientifiques et savoirs profanes :

  • Un panel des meilleurs scientifiques du moment est constitué, dans une logique de pluridisciplinarité pour tenir de la rationalité limitée de chaque point de vue disciplinaire.
  • Deux panels de profanes se préparent pendant deux mois avant le débat : Un panel est composé des profanes sans connaissances spécifiques du sujet. L’autre panel rassemble des militants sur les questions sanitaires. Chacun des panels s’approprie la connaissance des experts et des scientifiques et la traduit en questionnement profane.

La première étape du débat est de bâtir la représentation du problème par les profanes : comment la crise de la vache folle a-t-elle pu se produire ? Au fil des débats, nous avons dessiné un modèle émergent de représentation du problème, qui a intervalle régulier est présenté aux panélistes qui valident ou non cette représentation (Figure 10). Celle-ci fait apparaître des grandes problématiques qui sont des processus : la consommation, la production, la protection sanitaire, la décision publique et la production de connaissance. Il apparaît assez rapidement que c’est le processus de production de connaissance et son intégration dans le processus de la décision publique qui est le point critique. Le modèle traditionnel de la décision publique ne s’inscrit pas dans un univers controversé et rendu turbulent par les variables endogènes (le progrès technique) et exogènes (l’ouverture des frontières). Il s’appuie sur « une expertise qui sait » alors que dans un univers controversé, « l’expertise ne sait pas ».

Figure 10 : Le modèle émergent des chaînes causes-effets de la propagation de la maladie de la vache folle

Chaque chaîne est ensuite analysée en détail pour identifier les inducteurs d’effets positifs et négatifs dans chaque processus (voir annexe). Pour le processus de la décision publique, les inducteurs d’effets pervers apparaissent : l’obligation administrative de déclarer la maladie a provoqué des sous-déclarations, phénomène lié au productivisme agricole et avec des inducteurs d’accélération comme l’ouverture des frontières. Pour chaque inducteur d’effet non-souhaitable (marqué en rouge) le travail collectif des panélistes génère un inducteur d’effet souhaitable (marqué en bleu) (Figure 11).

Chaque chaîne est analysée de même. Cette cartographie de la complexité a pour bénéfice :

  • De construire un modèle de représentation partagé d’un problème aux multiples composantes relevant de disciplines hétérogènes.
  • De faire apparaître des leviers d’action consensuels.

La complexité n’est pas cachée, bien au contraire, elle devient l’élément structurant du débat collectif puisque « la modélisation d’un système complexe va s’organiser en une série d’itérations entre les projets et les représentations symboliques que s’en construit le modélisateur » (Le Moigne, 1990 :54), le modélisateur étant ici le corps social constitué de représentants d’acteurs décentralisés.

Figure 11 : l’analyse de la chaîne de la décision publique et l’identification d’inducteurs d’effets désirables et non désirables.

    1. De l’importance de la controverse et de la confrontation

C’est Machiavel qui a mis le premier l’accent sur l’importance de la confrontation comme facteur fondamental de la vie publique (Rochet, 2008) et de la poursuite du bien commun. De même, on trouve cette analyse étonnante chez François Guizot dans son Histoire de la Civilisation Européenne en 1828 qui faisait – 20 ans avant Marx – de la lutte des classes le facteur-clé de succès de la civilisation européenne :

« L’Europe moderne est née de la lutte des diverses classes de la société (…) En Asie, par exemple, une classe a complètement triomphé et le régime des castes a succédé à celui des classes et la société est tombée dans l’immobilité. Rien de tel, grâce à Dieu, n’est arrivé en Europe. Aucune classe n’a pu vaincre ni assujettir les autres ; la lutte, au lieu de devenir un principe d’immobilité, a été une cause de progrès ; les rapports des diverses classes entre elles, la nécessité où elles se sont trouvées de se combattre et de se céder tour à tour, la variété de leurs intérêts et de leurs passions, le besoin de se vaincre sans pouvoir en venir à bout, de là est sorti peut être le plus énergique, le plus fécond principe de développement de la civilisation européenne »

La lutte des classes est un facteur d’évolution à condition qu’aucune ne triomphe, dans la négative l’évolution du système institutionnel s’arrête : l’observation de Guizot sur l’immobilité de l’Asie a été amplement confirmée et il aurait pu appliquer la même analyse à l’effondrement par inertie interne du système communiste.

La bonne décision publique procède donc de la confrontation d’options qui vont émerger du débat public et qui résultera de la capacité du système institutionnel à bâtir des compromis stables.

La controverse de la Cité des sciences se déroulait en public. Il pouvait à intervalles réguliers intervenir et commenter les débats et les représentations qui en émergeaient. Les techniques de modélisation assistée par un ordinateur (ici un simple logiciel de gestion de présentations) sont d’un grand secours pour fabriquer les modèles. Le progrès des technologies web peut permettre d’envisager d’organiser de telles controverses sur une grande échelle.

Tel est l’objet des recherches du « symbiotic intelligence project » menées au Laboratoire National de Los Alamos (Etats-Unis) qui démontrent qu’il existe une corrélation fortement positive entre la pertinence, la stabilité des décisions en situations complexes et le nombre et la diversité des parties prenantes au processus décisionnel. L’hypothèse de base est celle de la rationalité limitée : un seul individu ne peut maîtriser toute la complexité des systèmes sociaux. Le travail en groupes de résolution de problèmes permet de mettre en relation les processus d’apprentissage des individus et des sous-groupes pour faire émerger un processus d’apprentissage commun. La créativité du groupe provoque un phénomène de chaos déterministe (au sens scientifique du terme) qui met les solutions possibles en concurrence les unes avec les autres et ne retient que les solutions viables et stables.

Le projet Symbiotic Intelligence fait apparaître quatre points clés pour la réussite d’un tel processus :

    1. Le débat permet de passer du bruit à l’information

Chaque acteur du système entre dans le processus avec sa vision, son expérience et son langage pour décrire les phénomènes perçus. Le débat et la confrontation permettent de comprendre les différentes visions du monde en présence, les différents registres sémantiques et de bâtir une représentation commune du problème (Rochet, 1998). On passe donc du bruit et de la cacophonie de représentations conflictuelles à l’information sur le vécu collectif du problème. Il se crée de ce fait un effet d’apprentissage collectif qui fera que le système décisionnel ainsi créé restera stable quand de nouvelles crises l’exposeront à de nouveaux bruits : l’individu est très sensible au bruit, le système collectif y est insensible (Johnson, 1999)

    1. Procéder de manière émergente

La solution émerge du débat, ce qui suppose en premier lieu pour les participants – et surtout pour les décideurs politiques – d’accepter de se laisser surprendre par la solution qui émergera, et même plus, d’accepter une solution qu’ils ne comprendront pas du premier abord. Cela suppose une confiance dans la pertinence et dans la fiabilité du processus. La tendance générale dans les modèles décisionnels classiques est de ne pas faire confiance au débat collectif considéré comme uniquement producteur de bruit, et donc de « l’orienter » de manière plus ou moins discrète vers une solution préétablie et jugée rationnelle.

    1. Le large débat est gage de stabilité

Dans les quatre cas que nous avons développés, nous avons souligné l’importance de la préparation et de l’apprentissage ex-ante, avant d’avoir à prendre la décision. Il n’y a pas de corrélation entre la rapidité de la phase d’apprentissage et la capacité à décider vite (Johnson & alii, 1998) : on peut donc passer beaucoup de temps à l’apprentissage collectif.

En outre, le débat large permet d’intégrer les extrêmes dans le modèle décisionnel : plus le débat est large, plus le modèle décisionnel est stable et peut produire des décisions robustes. Il est contre-performant de vouloir limiter la participation au débat à de supposés « meilleurs éléments ». Les expériences du programme Symbiotic Intelligence ont montré qu’il existe une corrélation entre la réduction du débat aux « meilleurs éléments » et la perte de stabilité de la solution choisie.

On peut toutefois procéder par étapes, en accroissant l’échange d’expériences et d’informations dans la phase d’apprentissage pour accroître la performance du modèle décisionnel, mais cela se fait aux dépens de la solidité des solutions produites. Dans les cas exposés, celui des états généraux de l’alimentation a ouvert rapidement le débat au grand nombre : les enseignements produits sont robustes mais limités à des fondamentaux. À l’opposé, l’expérience de la controverse sociotechnique sur la vache folle s’est concentrée sur un nombre limité de participants : elle produit une plus grande intelligence des phénomènes, mais pas de solutions opérationnelles.

    1. Garantir la traçabilité du processus décisionnel.

Il serait tentant pour des décideurs publics de vouloir habiller le modèle décisionnel traditionnel des habits du nouveau, et de n’en faire qu’une opération de communication où les solutions sont choisies d’avance et où le public ne joue qu’un rôle de figurant. Non seulement cette pratique ne produira rien – on peut tromper quelques personnes quelques fois mais on ne peut pas tromper tout le monde tout le temps – mais discréditera l’ensemble du processus des conférences décisionnelles et des controverses sociotechniques.

A l’inverse, il est essentiel que tout au long du processus, il soit fait mémoire des débats, des conflits, de la construction des consensus et des disensus, du traitement des données, de l’évaluation du processus lui-même. Le processus doit être en lui- même une propriété collective : sa rigueur, sa fiabilité et sa crédibilité sont liées à sa transparence et à sa traçabilité.

à suivre…

 

Partager cet article:

Une réponse pour “Le Bien commun au coeur de la décision publique: Méthodologie”

  1. Ping : Le nécessaire retour à la philosophie du bien commun – Claude ROCHET

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.