Nouveaux processus de création de valeur dans les politiques publiques

Nouveaux processus et nouvelles métriques de création de valeur

pour les politiques publiques

 Claude ROCHET

Intervention au forum
l’Evolution du métier de dirigeant de la protection sociale
Paris le 13 février 2014

http://www.en3s.fr/


Je vais vous présenter un certain nombre de cas concrets d’activités s’inscrivant dans le cadre du scénario de développement des capacités stratégiques, le captage de l’innovation ou encore le développement du capital humain.

I.                    Comment crée-t-on de la valeur publique ?

La création de valeur résulte d’une interaction entre de nombreux phénomènes qui peut être modélisée. C’est ce que l’on appelle le travail d’« architecture ». Elle peut également être mesurée par des métriques initialement non comptables mais susceptibles d’être intégrées progressivement à nos systèmes comptables.

1. L’exemple du processus de gestion des Accidents Vasculaires Cérébraux (AVC)

a. La méthode

Avec 130 000 cas chaque année, l’AVC est la troisième cause de mortalité en France. Il nécessite une intervention médicale dans les 4h30. L’enjeu a donc consisté à réussir l’alignement stratégique de tous les intervenants. En cas d’AVC, en effet, on commence par appeler le 15 ou le 18 pour déclencher l’intervention soit des rouges (les pompiers), soit des bordeaux (le service de santé des pompiers), soit des blancs (le Service d’Aide Médicale Urgente – SAMU) et, pour peu que les noirs (la police) interviennent aussi, nous assistions alors à une véritable cacophonie qui pouvait très vite consommer les 4h30.

Le travail a donc consisté à réaliser d’abord une modélisation des processus autour de l’objectif afin d’imaginer un processus adapté aux AVC. Ce processus prévoit ainsi de faire réaliser d’abord un diagnostic in situ par un secouriste  qui peut être un sapeur pompier volontaire. Cela a été l’étape la plus difficile à mettre en place car il a fallu faire en sorte qu’un médecin, un neurologue, puisse reconnaître à un sapeur pompier, qui n’a aucune compétence médicale, la capacité de reconnaitre les signes d’un d’AVC, qui sera confirmé par téléconférence entre le sapeur pompier, le régulateur du SAMU et le neurologue.

Si le diagnostic est confirmé, on met alors en place une chaîne spéciale de traitement, car il faut à tout prix éviter les urgences sous peine de perdre le patient, mais se rendre immédiatement dans un centre d’Imagerie à Résonance Magnétique (IRM) fonctionnant 24h/24. Le scanner Cette imagerie permet ensuite de diagnostiquer un AVC hémorragique ou une thrombose. En cas de thrombose, sauf contre-indication particulière, on peut être traité et, lorsque la thrombolyse intervient dans les 4 h 30, 80 % des patients récupèrent totalement en 4 jours. Les AVC hémorragiques, en revanche, ne sont pas éligibles. Mais même s’il n’y a pas de neurologue dans le centre IRM, la thrombolyse peut être réalisée par télémédecine. L’impact à long terme, en coût et en bien-être, est considérable.

La difficulté, dans le design de ce processus, a consisté à modéliser l’étape qui se situe entre l’AVC et l’appel aux secours. Il a fallu faire une campagne d’éducation, qui s’est déroulée l’année dernière, pour éduquer le grand public à reconnaître les signes de l’AVC, tels que l’aphasie. Lorsque j’enseignais au Maroc, en effet, les cardiologues locaux m’ont confié n’avoir jamais vu quelqu’un arriver dans les 4h30. La valeur créée par ce processus a donc permis de valoriser la campagne d’éducation.

b. Les résultats

Après cette campagne d’éducation, le nombre d’appels a crû de 20 %. Cela représente évidemment un surcoût à court terme, mais le bénéfice à long terme est considérable. Pour le Service Départemental d’Incendie et de Secours (SDIS) des Bouches-du-Rhône, cela représente un surcoût moyen de 200 € par patient. L’hôpital doit, en outre, engager 1 300 € de traitement pour la thrombolyse plus 300 € de neurologue et le coût de l’imagerie. Le surcoût total peut donc être estimé à  2500€. Le bénéfice le plus immédiat est que la durée d’hospitalisation est ramenée de 30 à 5 jours. A plus long terme, 20 % des patients sont récupérés sans aucune séquelle. En termes de coût pour la Sécurité sociale, cela représente une économie de 1 million d’euros par cas. Enfin, cette modélisation ne tient pas compte du bénéfice en termes de capital humain, car une personne ayant un AVC est à la charge d’une famille et peut potentiellement l’empêcher de travailler. Il est vrai que l’âge moyen des victimes d’AVC est de 73 ans, ce qui pose la question de la valeur ajoutée d’une personne de 73 ans, mais il reste qu’il s’agit d’un poids pour une famille. Nous n’avons pas les données permettant de mesurer le coût de cette charge, mais il faudrait pourvoir le mesurer. C’est, en effet, la mesure de la valeur sociale qui a permis de déclencher la campagne d’éducation.

En historisant toutes les données d’intervention, on s’aperçoit également que le nombre d’AVC est constant. Sur les Bouches-du-Rhône (hors Marseille ville), il y a environ 500 AVC par an transportés sur le stroke center par mois. Or, si le nombre d’AVC diminue, cela ne signifie pas que les gens se portent mieux mais que certains sont passés à travers les mailles du filet, ont été emmenés vers les urgences d’hôpitaux non équipés de stroke centers et ne seront donc pas soignés. Le taux d’AVC est l’une des métriques permettant de surveiller l’assurance qualité du processus. Il s’agit d’un travail important, très conflictuel, puisque nous travaillons avec des personnes à fort caractère : des urgentistes, des sapeurs-pompiers, qui plus est dans les Bouches-du-Rhône où les esprits s’échauffent vite. De plus, la thrombolyse n’étant pas un acte coté, elle représente un coût important pour l’hôpital. Nous avons également des problèmes avec les chefs de pôles, du fait de la rivalité qui oppose les radiologues aux neurologues. Il y a eu, par exemple, un incident à Strasbourg parce que les radiologues avaient décidé de réserver les IRM à leur clientèle et ne les laissaient plus disponibles 24h/24. Enfin, il s’agit de déterminer comment l’hôpital peut calculer son coût d’occupation des lits : 30 jours de lits pour un AVC non traité est sans doute plus rentable que 5 jours de lits à haute technologie.

Il reste donc deux principaux problèmes à résoudre. Le premier concerne le modèle économique de l’hôpital. Le second consiste à rendre interopérables les plateformes 15, 18 et 112 car, dans certains départements la plateforme est unifiée mais cela n’est pas toujours le cas, notamment dans les Bouches-du-Rhône, ce qui suppose des allers-retours consommateurs de temps.

Tout ce travail est nécessaire, depuis l’éducation du grand public jusqu’à la transformation du modèle économique de l’hôpital, pour simplement faire en sorte que la victime d’un AVC soit orientée vers un centre IRM et non plus vers les urgences.

2. Enseignement : mesurer la valeur au niveau de l’écosystème

Il est aussi possible de considérer ces processus comme des écosystèmes, c’est-à-dire comme des ensemble d’acteurs en interaction et formant un système stable. L’Etat habille, par exemple, 1,5 million de fonctionnaires par an. Cela va de la blouse blanche jusqu’à l’équipement sophistiqué d’un démineur. Cela représente 8 000 emplois. Une paire de brodequins, par exemple, coûte 43 €. Si l’acheteur, qui respecte scrupuleusement le code des marchés publics, trouve des brodequins moins chers fabriqués au Bengladesh, il se heurtera d’abord à un problème de chaîne qualité, à un risque sanitaire accru et à des pertes d’emploi. Cela s’est déjà produit en effet : il arrive que le cuir utilisé, imprégné de produits toxiques, provoque des irritations et des réactions allergiques. Or, le code des marchés publics ne permet pas de pallier ce risque. Il s’agit alors de modéliser cet ensemble de paramètres pour bâtir un écosystème dans lequel les modèles d’affaire de l’Etat, des entreprises et des consommateurs pourront définir des indicateurs communs.

Ce travail peut se faire dans tous les domaines. On s’aperçoit, par exemple, que de plus en plus de personnes âgées vivent seules en ville, ce qui ne leur permet pas de « bien vieillir ». Le seul moyen d’avoir des relations sociales, pour ces personnes, est d’aller à l’hôpital. Ces personnes se rendent donc volontiers aux urgences alors qu’elles n’ont, en réalité, rien à y faire. Il s’agit donc de modéliser l’écosystème dans lequel vivent ces personnes et les interactions qu’elles ont avec leurs « aidants naturels » que sont soit la famille, soit les voisins : tout le monde peut être aidant naturel lorsqu’une personne âgée a besoin d’aide.

3. L’architecture système

Il s’agit donc d’introduire dans le service public cette nouvelle compétence d’architecture système, qui consiste à agencer les divers éléments d’un système pour atteindre un résultat et faire apparaître un phénomène. De ce point de vue, il faut tenir compte de la notion fondamentale d’« émergence », qui désigne un phénomène qui n’existe pas à l’état naturel mais résulte de l’agencement de divers éléments, sachant que ce phénomène n’est jamais identique. Lorsque l’on bâti un mur, par exemple, les briques sont les mêmes mais on ne fera jamais deux murs identiques. De même, les organes administratifs, l’informatique, la technologie, les fonctions, les process, sont les briques qui permettront d’atteindre l’objectif que l’on s’est fixé, comme dans le cas de la chaîne de traitement des AVC.

a. L’émergence

L’émergence consiste à modéliser les systèmes et à valider les interactions pertinentes pour voir ce qui en résulte. « Vivre en ville en bonne santé » est le résultat de l’interaction de plusieurs fonctions sans être imputable à aucune d’elles en particulier. Autrement dit, il s’agit de comprendre ce qui se passe. Cela ne coûte pas cher. Ce n’est que de la matière grise et du bon sens.

b. La complexité

La complexité dépend du nombre d’éléments en interaction et du nombre d’interactions entre ces éléments. Il faut donc s’efforcer de développer des architectures de type modulaire, un peu comme avec des pièces de « Lego » : avec quelques briques, on peut construire une multitude de figures. Concevoir un service est un peu la même chose.

c. Le système ouvert

Enfin, il faut comprendre que nous sommes dans des systèmes ouverts : on ne peut plus raisonner en termes de systèmes fermés dans lequel le résultat est absolument prévisible. Il s’agit donc de commencer par définir ce que l’on souhaite piloter, en vertu de la loi des systèmes complexes, ou loi de Ashby, les interactions que l’on maîtrise, c’est-à-dire le « dedans », et ce qui relève de l’aléatoire, le « dehors », ce qui provient de l’extérieur, c’est-à-dire l’inattendu. L’enjeu consiste à faire en sorte que l’inattendu devienne une ressource stratégique.

II.                 L’évaluation : la méthode des essais cliniques

Pour travailler sur l’émergence, des méthodes se sont développées et notamment la méthode des essais cliniques, qui a été développée par Esther DUFLO au Massachusetts Institute of Technology (MIT). L’idée est que la mesure expérimentale est la seule manière de casser les a priori idéologiques. Il est, par exemple, rigoureusement impossible de répondre à la question « Faut-il faire payer les pauvres ? » sans sortir du débat idéologique. Or ce débat idéologique se situe à très haut niveau puisqu’il oppose, d’un côté, le programme de Jeffrey SACHS dans le cadre des objectifs du millénaire pour le développement, qui préconise la gratuité totale pour les pauvres, et, de l’autre, le courant conservateur, illustré par William EASTERLY et Dambisa Moyo de la Banque mondiale, qui affirme que la gratuité pour les pauvres est du gaspillage. Sans expérimentation, cette question est insoluble.

1. La méthode

Une expérimentation a été menée sur les moustiquaires visant à éviter la maladie du sommeil pour tenter de répondre à la question : faut-il les faire payer ou les distribuer gratuitement ? Bien sûr, on trouve toujours des contre-exemples : au cas par cas, on peut constater que certaines mères s’en servent pour faire sécher du poisson, d’autres pour protéger leurs enfants contre les moustiques. D’où la nécessité d’en passer par les essais cliniques qui consistent, comme cela se fait pour les médicaments, à réunir deux groupes dont l’un bénéficie de la gratuité et l’autre non.

Les résultats font apparaître que le fait de faire payer a un effet d’éviction extrêmement rapide : selon les produits et la valeur que les gens leur donnent, le taux d’adoption diminue très rapidement. En revanche, il apparaît également qu’une fois qu’on a pu tester le produit et que l’on en connaît la valeur, on accepte ensuite de payer. Rappelons qu’il s’agit de sommes extrêmement faibles mais dont la valeur symbolique est extrêmement importante. L’acquisition est donc sensible au prix mais l’usage ne l’est pas du fait de l’apprentissage : si l’on fait payer pour le premier usage, le taux d’adoption est extrêmement faible mais, en revanche, si l’on ne fait payer qu’au second achat, le taux d’adoption n’est pas tellement impacté.

2. Les conclusions opérationnelles

Cette méthode suppose des système de mesure qui ne sont pas très sophistiqués mais qui doivent être mobilisés sur place par des agents locaux spécifiquement formés. Car cela permet de comprendre la sociologie dans laquelle on se situe. Les personnes en situation d’extrême pauvreté, en effet, vivent dans un environnement à très haut risque où le fait de s’assurer représente déjà, en lui-même, une prise de risque financière. La construction d’une stratégie d’information, d’apprentissage et de construction de la confiance est donc essentielle. C’est l’interaction entre l’opérateur et l’utilisateur qui permettra de construire cette confiance et de garantir la fiabilité du système. Il y a là un travail cognitif de fonds à mener.

III.              Appliquer des règles d’architecture

Il faut penser nos organisations comme des “Lego”. Elles comportent des éléments tels que des bureaux, des services, des agents, etc , qui sont des briques de processus,. Les méthode d’assurance qualité, en effet, et les systèmes d’information permettent de modéliser les processus, pour en faire des briques. Il s’agit ensuite de structurer ces éléments pour bâtir une organisation permettant de remplir certaines fonctions.

1. Une organisation est un système de processus agencés selon des règles d’architecture

Pour cela, il est important de bien partir de la pointe du triangle en répondant à la première question : que veut-on faire ? Cela paraît simple, mais lorsque l’on est immergé dans des organisations très sophistiquées et complexes, il n’est pas toujours évident de bien aligner les processus, les compétences et les technologies sur les finalités. Cela nécessite une formation d’architecte système, un certain investissement dans le capital humain à très haute valeur ajoutée.

2. Les erreurs courantes à l’origine de décisions absurdes

Les erreurs courantes sont extrêmement ruineuses. La principale consiste à consacrer 95 % de l’effort à la réalisation, aux dépends de la conception. Déjà, dans l’ Evangile de Saint Luc, il était dit que pour concevoir une grande œuvre, il faut commencer par s’asseoir et par penser[1]. Ensuite, il s’agit de s’assurer que l’on maîtrise bien la technique nécessaire à ce que l’on veut faire : on n’invente pas la brique en même temps qu’on construit la maison. Il faut travailler avec des briques de processus qui ont déjà eu une vie organisationnelle, qui ont été testées. Il faut ensuite consacrer autant d’effort à chaque phase : à la conception, à la réalisation, à la vérification. Nous sous-estimons généralement l’importance à donner aux tests, car nous sommes plutôt dans une logique industrielle qui consiste à tout faire fonctionner en même temps. Il faut au contraire progresser par étapes, faire des projets pilotes, mesurer, comprendre ce qui marche, faire des retours d’expériences, capitaliser du savoir, transférer ce savoir et, progressivement, développer le système.

3. Intégrer le principe des Organisations à Haute Fiabilité (HRO)

Enfin, il faut intégrer le principe des organisations à haute fiabilité pour éviter les décisions absurdes. Le concept de décision absurde s’est développé dans le contexte des HRO (High Reliability Organization), c’est-à-dire dans les organisations où une toute petite erreur peut entraîner une catastrophe, telles que les sous-marins, les centrales nucléaires, etc. Il consiste à s’assurer que l’on fait bien les bonnes choses, c’est-à-dire à aligner la capacité à bien faire (respecter un process) sur la capacité à faire les bonnes choses (atteindre la cible).

Christian MOREL, travaillant sur le débriefing des accidents aériens, a ainsi identifié une loi, qu’il a baptisée « loi du cockpit », qui veut que, lorsqu’un avion est en perdition, un effet de solidarité de groupe se crée dans le cockpit qui prend le pas sur l’esprit critique. Plus la culture hiérarchique est élevée, comme dans un équipage coréen par exemple, plus la loi du cockpit est forte : personne n’ose remettre en cause une décision absurde en allant contre le groupe et contre la hiérarchie. Or un avion peut planer pendant deux heures. Il existe de nombreux cas où, le réacteur gauche étant en feu, on coupe le réacteur droit, donc le dernier réacteur en état de marche, et où, pendant les deux heures que continue à planer l’appareil, on prend ainsi la décision collective de se crasher.

Pour lever ces inhibitions, il existe plusieurs mesures à mettre en œuvre :

  • la politique de non punition des erreurs, qui a été adoptée en 2006 dans l’Armée de l’Air, est une mesure qui permet d’exploiter l’erreur comme source de connaissance ;
  • la formation aux facteurs humains : les briefings et débriefings permettent d’avoir une vision commune de la situation, notamment dans le milieu médical où la pratique des check-lists se généralise ainsi que des formes d’expression légitimes des désaccords ;
  • l’équilibrage entre procédures (check-lists) et intelligence des situations, car il y a toujours 20 % de cas dans lesquels la procédure ne fonctionne pas : le retour d’expériences est nécessaire dans toutes les organisations pour permettre d’améliorer en permanence les procédures ;
  • l’intégration de l’indétermination dans la décision : on a trop tendance à oublier, par exemple, que la rationalité humaine est limitée et que le cerveau humain ne peut pas traiter plus de 7 données simultanément.

Enfin il existe quatre règles fondamentales dans le management des HRO et de toutes les organisations :

  • des hiérarchies restreintes et impliquées : dans les sous-marins, par exemple, les commandants enlèvent leur grade pour éviter l’effet inhibiteur du grade, mais ce n’est pas pour autant qu’il n’y a plus de hiérarchie ;
  • les fonctions d’avocat du diable : comme dans les procès en béatification, il faut toujours que quelqu’un soit chargé de critiquer les décisions pour contrer les effets d’unanimisme de groups
  • le contrôle de la décision par consensus, car quand un consensus se forme, il y a toujours un moment où le consensus est privilégié sur la décision : c’est d’ailleurs pourquoi le Talmud prévoit que lorsqu’un homme est unanimement condamné à mort, il doit être automatiquement acquitté ;
  • l’interaction généralisée, qui permet d’échanger l’information en temps réel.

[1] « Quel est celui d’entre vous qui, voulant bâtir une tour, ne commence par s’asseoir npour calculer la dépense et voir s’il peut aller jusqu’au bout », Luc 14-28

(3)

L’inattendu, une ressource stratégique

L’inattendu, une ressource pour le stratège dans l’organisation résiliente

Centre d’Etudes et de Recherche en Gestion d’Aix-Marseille CERGAM

Aix Marseille Université, CERGAM EA 4225, 13540, Puyricard, France

 

A paraître dans

Les processus stratégiques dans les administrations et organisations publiques.

Sous la direction du professeur Bachir Mazouz

Eté 2014

Claude Rochet 

Professeur des universités

Aix Marseille Université

IMPGT AMU CERGAM

Claude.rochet(@)univ-amu.fr

Anaïs Saint

Doctorante

Aix Marseille Université

IMPGT AMU CERGAM

anais.saint(@)univ-amu.fr

 PDF

Résumé : Loin d’être un facteur de risque, l’inattendu peut être une ressource dès lors qu’il contribue à la résilience de l’organisation. L’inattendu est un accroissement brutal de la complexité de l’environnement qui requiert un accroissement de la complexité interne de l’organisation, qui s’acquiert par des processus d’apprentissage qui ont été modélisés par les recherches sur les organisations à haute fiabilité (HRO). Ces principes, développés dans les organisations à haut risque, s’apliquent à toutes les organisations qui aspirent à la fiabilité.

P

ar définition, une organisation résiliente est capable de faire face aux changements variés et parfois inattendus de son environnement tout en renforçant sa capacité à faire face par la suite à des changements plus perturbateurs. Le concept de résilience organisationnelle, s’il connaît depuis quelque temps un succès certain, remonte toutefois au milieu du siècle dernier : à la fin des années 1950, les travaux sur la cybernétique d’Ashby (1957) aboutissent à la conclusion qu’un système qui se régule parfaitement est un système dont la complexité interne lui permet de faire face à toute perturbation de l’environnement. Ashby nomme alors « variété » l’ensemble des états possibles d’une entité, et établit que plus un système a une variété large (plus le nombre d’états qu’il est capable d’adopter est grand), plus il sera apte à répondre à un changement de son environnement : il sera donc plus résilient. La capacité d’un système à avoir une variété appropriée à la variété de l’environnement est nommée « variété requise » : plus grande est la variété de l’environnement, plus grande doit être la variété du système.

Si ce système est une organisation dans un environnement ouvert, la variété de l’environnement à laquelle elle doit faire face est quasi-infinie. Le système social qu’est l’organisation devrait donc augmenter sa variété le plus possible de manière à pouvoir résister au plus grand nombre de changements de l’environnement possibles : c’est sur la base de ces constats que l’on peut dire que le moyen pour les organisations d’accroître leur variété sera donc d’augmenter leur capacité à s’adapter par l’invention, l’improvisation et le bricolage adaptatif, ce que l’on regroupe sous terme d’apprentissage organisationnel. Ainsi, les organisations hautement fiables (ou High Reliability Organizations (HRO)) sont des systèmes dont la résilience est extrême. Depuis les années 1990, le thème des HRO comme des organisations résilientes n’a cessé de se construire dans la littérature académique, et la théorie des HRO semble être le mariage des thèmes de la fiabilité et de la résilience. C’est pourquoi, avant de présenter les HRO comme organisations résilientes, nous débuterons ce chapitre par l’approfondissement de ce que sont la fiabilité et la sécurité pour une organisation.

Il apparaît en effet plus utile à une organisation qu’elle sache réagir à l’inattendu plutôt qu’elle s’attache à rendre impossible tout évènement inattendu. Cette deuxième option procède d’une conception déterministe du monde qui n’est pas appropriée aux environnements complexes. L’inattendu peut même devenir une véritable ressource pour l’organisation car il lui permet, par apprentissage permanent, d’améliorer ses capacités (de détection, d’anticipation, de réaction …).

PARTIE I : L’organisation hautement fiable

L

a théorie des HRO est née dans les professions dangereuses, où le risque est « normalisé » par les agents : ils s’habituent et intègrent le risque, ne prenant plus conscience des possibles conséquences gravissimes de la moindre erreur. Le risque est donc un sentiment plutôt qu’un fait puisqu’il sera fortement lié à la perception des individus. Lorsque l’accident survient, nous sommes conditionnés pour rechercher la cause efficiente (ou « cause des causes »), voire le coupable de la situation. Pourtant, ce moment-là n’est pas adapté à la recherche de la responsabilité (au sens de culpabilité) mais de l’imputabilité au sens de la compréhension des réseaux de chaines causales : il est plutôt celui de l’apprentissage ; l’accident n’est plus « prévisible » au sens statistique que l’on retrouvera dans des outils comme les arbres des causes, mais « probable » : il faut prévoir l’imprévu en amont… mais comment ?

Qu’est-ce que la haute fiabilité et à quels sont les principaux critères qui font les organisations à haute fiabilité ? La théorie des HRO est en effet souvent mise en concurrence avec la théorie des accidents normaux de Perrow (1999) car l’on a souvent considéré leurs conclusions comme étant contradictoires. La fiabilité organisationnelle couvre en fait tous ces champs.

A.  Fiabilité organisationnelle, sécurité : comment considérer les accidents et les erreurs dans l’organisation ?

Tous les aspects de la fiabilité organisationnelle n’avaient pas encore été explorés en profondeur dans la littérature académique dans les années 2000. Les thèmes de la sécurité collective ou bien de l’erreur collective, par exemple, étaient encore peu abordés. Pourtant, au niveau individuel, l’erreur et la fiabilité avaient déjà été développés : certains auteurs considéraient par exemple que chaque résultat à la suite d’une séquence d’activités (qu’elles soient tangibles ou mentales) ne correspondant pas à l’objectif initial était une erreur. Néanmoins, il existe deux types d’erreurs dans l’organisation : les faux pas, les dérapages, les oublis, les lapsus, etc., autrement dit les erreurs typiquement humaines représenteraient 30% des erreurs de l’organisation tandis que les 70% restant seraient plutôt des erreurs induites par le système… Autrement dit, c’est l’organisation qui aurait poussé les acteurs. Un individu a ainsi pu prendre une décision absurde quant à son résultat mais valide au regard des procédures administratives. Si la part de 30% des erreurs peut être réduite par de l’attention supplémentaires aux tâches, il en va autrement des erreurs induites par la perversité du système. Comment réduire ces 70% restant ? Si de ce point de vue, l’humain fait un grand nombre d’erreurs, alors que « le collectif est le premier facteur de fiabilité surajoutée aux individus »[1], alors la dimension collective de la fiabilité est celle qui nous intéresse dans ce cadre.

Nous pouvons distinguer trois principaux courants de recherche concernant la fiabilité organisationnelle :

  • Les psychologues ergonomes considèrent que ce sont les acteurs qui fondent la fiabilité de l’organisation par leur capacité, en interagissant, à s’adapter, inventer et anticiper.
  • Les gestionnaires de crise de l’école des « accidents normaux » de Perrow (1999) envisagent l’accident comme inévitable, et considèrent que l’organisation ne peut de ce fait assurer une fiabilité parfaite.
  • Enfin, les chercheurs du courant des HRO de l’Université de Berkeley établissent que la fiabilité est la « résultante d’un couplage réussi entre les acteurs, l’organisation et l’environnement »[2]. Ces travaux explorent ainsi les « processus fiables ». En effets, ces organisations à haute fiabilité mettent en place des processus de travail visant justement à obtenir la fiabilité requise : dans les HRO, « la fiabilité de la performance rivalise avec la productivité en tant que but dominant »[3].

Dans cette dernière approche de la fiabilité, la sécurité est la capacité de l’organisation à réussir sous des conditions variées et variantes : la fiabilité est faite jour après jour par l’organisation, cet un processus permanent et non un état stable !

B.  Historique de la théorie des HRO

Les différents travaux scientifiques sur les HRO ont débuté bien après la variété requise d’Ashby (1957). C’est dans les années 1980 que le monde scientifique commence à se concentrer sur les organisations performantes dans des environnements dangereux. La notion de haute fiabilité n’est pas encore nommée comme telle, car les études portent alors plutôt sur l’anticipation et l’évitement des accidents, puis sur la résilience et l’apprentissage. L’objet d’étude HRO ne se construira que par tâtonnements, trois caractéristiques émergeant progressivement :

  • Des conditions opérationnelles difficiles, notamment à cause d’un environnement volatile et imprévisible, et d’une technologie complexe nécessitant un management et des compétences spécialisées ;
  • Le danger, proportionnel au degré de sévérité des dommages pouvant survenir, mesurable par exemple par le nombre de victimes générées ;
  • Une réussite manifeste, autrement dit quand il y a reconnaissance par le public et les autorités d’une part, la production d’un service à la hauteur de la performance exigée d’autre part. L’organisation parvient à ces fins tout en gardant ses acteurs en sécurité.

L’originalité de cet objet d’étude tient au fait qu’il « rompt la tradition qui consistait à analyser uniquement les accidents, pour examiner les organisations qui réussissent à gérer des opérations complexes dans un environnement dangereux. »[4] Alors que le courant des accidents normaux de Perrow (1999) figeait l’organisation, comme une structure statique, la théorie des HRO permet de mettre en lumière les facteurs imputables à l’organisation, conçue comme un réseau de processus évolutionnistes, lorsque survient un accident, tandis que l’on considérait dans l’approche classique que les erreurs ou catastrophes provenaient surtout d’erreurs d’interprétation ou de perception des consignes. D’où l’intérêt de la recherche académique de voir l’organisation comme un système de perceptions et d’interprétations. Dans les années 1990 « la thèse spécifique des HRO s’est ainsi cristallisée autour de l’idée selon laquelle la haute fiabilité est sociale. »[5]

Puis, les chercheurs ont peu à peu abandonné l’hypothèse d’organisations hautement fiables au profit d’organisations « tendues vers la haute fiabilité »[6]. Enfin, l’objet d’étude s’est de nouveau déplacé, cette fois vers les processus organisationnels contribuant à la haute fiabilité : c’est le High Reliability Organizing.

C.  Qu’est-ce que le High Reliability Organizing ?

A ce jour, les organisations reconnaissent plus facilement que le risque zéro ne peut être atteint : on n’élimine pas les risques, on les gère. Pour autant, tendre vers la haute fiabilité peut être une propriété critique : c’est le cas de l’armée, de l’aviation, du contrôle aérien ou encore des projets nucléaires et spatiaux, etc. en raison des conséquences effrayantes que les accidents peuvent avoir. Ainsi, les HRO sont en premier lieu définies par le risque catastrophique induit par les erreurs. Lorsque le potentiel d’erreurs est élevé mais que dans les faits, le nombre d’accidents qui se produit effectivement reste bas, alors l’organisation peut être dite hautement fiable. Ces organisations sont généralement supportées par des systèmes technologiques qui leur permettent de gérer la complexité de leur environnement, mais où la décision humaine et l’apprentissage restent la clé. Les organisations à haute fiabilité sont par conséquent capables de s’ajuster en fonction des situations en étant guidées par des processus cognitifs stables reposant sur des facteurs humains. C’est donc une organisation à l’autre extrême de celle qui est complètement standardisée et où les hommes n’ont pas à réfléchir à leurs actions répétitives. Cette dernière organisation faisait en effet preuve d’une variété inélastique, limitée à des situations prévisibles, au contraire d’une HRO qui cherche à augmenter cette variété pour être capable de répondre à des situations imprévues. L’organisation hautement fiable sait donc faire preuve de créativité, autrement dit les agents sont capables (pour autant qu’ils y soient autorisés !) de répondre à une situation inattendue.

Cette situation inattendue est par nature non prévisible mais prédictible, voir non-prédictible et totalement aléatoire[7]. L’organisation à haute fiabilité doit faire face à l’incertitude qui est de deux types: l’incomplétude et l’ambiguïté.

  • L’incomplétude ici peut être cognitive (l’on a une connaissance limitée de la réalité passée ou future) ou comportementale (l’on réagit bien précisément à certaines situations par des comportements prévus sans savoir s’ils sont vraiment appropriés). Il y a un caractère perceptuel dans le fait de pouvoir correctement prédire ou expliquer : l’individu est limité cognitivement et a rarement accès à toute l’information nécessaire.
  • L’ambiguïté, elle, se réfère plutôt au cas où l’individu a le choix entre plusieurs scénarios possibles mais limités en nombre. L’on construit alors socialement, l’on invente parfois, le scénario dont on estime qu’il aura les conséquences les plus appropriées. La décision est alors un pari.

Il est toutefois important de garder à l’esprit que ces deux natures d’incertitude (incomplétude et ambiguïté) sont liées même si elles sont différentes : « l’incomplétude réclame des moyens de communication concis et formels, alors que l’ambigüité est susceptible de diminuer avec des moyens de communication riches et informels »[8]. Incertitude et ambiguïté sont alors entremêlées : la réduction de l’incomplétude crée de l’ambiguïté et vice versa à cause de l’accès à l’information.

Différentes caractéristiques ont été dégagées par la littérature scientifique pour reconnaître une organisation à haute fiabilité. L’on peut dégager pas moins de huit caractéristiques :

  • L’hypercomplexité : les HRO détiennent une très grande variété de composants, de systèmes et de niveaux, chacun ayant leurs procédures standards, leurs routines d’entraînement et leur hiérarchie de commandement. Il s’agit donc d’un système « multiteam ». Le travail d’équipe apparaît essentiel dès cette première caractéristique.
  • Le couplage fort ou couplage « étroit », est en fait une interdépendance réciproque entre les unités et les niveaux. Les tâches de l’organisation sont ainsi fortement interdépendantes.
  • Une différenciation hiérarchique extrême : les niveaux et les rôles sont clairement définis dans la structure ; les responsabilités de chacun sont ainsi mises en évidence.
  • De nombreux preneurs de décision qui travaillent dans des réseaux de communication complexes.
  • Un fort degré de responsabilisation résulte en des conséquences généralement très sévères pour les personnes ayant commis des erreurs. Ceci est bien sûr en lien avec le fait que les conséquences des erreurs sont souvent graves et touchent un nombre important de personnes ou une communauté, d’où la forte pression concernant la responsabilité de chacun. Les acteurs doivent ainsi rendre des comptes sur leurs décisions de manière à ce qu’ils perçoivent leurs responsabilités.
  • Des feedback immédiats et fréquents sont nécessaires lors des prises de décision car, toujours en lien avec le risque de conséquences dramatiques, les acteurs sont attentifs aux impacts de leurs décisions et ce dans de très brefs délais.
  • Le temps est généralement une contrainte forte pour ces organisations, d’où la mise en place de procédures de routine visant à gagner du temps… Mais ces procédures doivent rester souples de manière à pouvoir être adaptées lors d’imprévus.
  • Enfin, les impacts critiques de l’activité de l’organisation hautement fiable surviennent de manière simultanée.

La haute fiabilité est donc principalement en lien avec la question de comment les acteurs et l’organisation vont pouvoir répondre à des évènements inattendus aux possibles conséquences dramatiques. La fiabilité est alors possible si elle est perçue comme une activité dynamique de l’organisation, une recherche d’équilibre vécue comme une tension entre rigidité et flexibilité, confiance et doute, conformité et autonomie, anticipation et résilience, expertise et ignorance. Nous retiendrons ici la définition suivante : « la haute fiabilité est la capacité à gérer efficacement et de manière continue des conditions opérationnelles qui fluctuent fortement, qui peuvent devenir extrêmement dangereuses et imprédictibles. »[9]

Malgré une définition plutôt stable de la haute fiabilité à ce jour, il reste pourtant difficile pour le monde académique d’évaluer la fiabilité d’une organisation (sur quels critères se baser ?) autant que d’établir les principes qui permettront à une organisation de tendre vers une HRO (quelles pratiques adopter ?). C’est ce que nous tentons d’éclaircir dans la partie suivante.

D. Les principes du High Reliability Organizing

Cinq dimensions conceptuelles doivent être considérées concernant la fiabilité :

  • le contrôle :vérifications, maîtrise des processus de production des produits ou services ;,
  • la multiplicité : redondance des vérifications, multiplicité des vues et des manières de faire),
  • la visibilité : transparence des pratiques pour que chacun comprenne le fonctionnement de l’organisation),
  • la sauvegarde : mise en œuvre de moyens de préserver l’organisation et ses acteurs)
  • et l’adaptabilité : capacité à changer les pratiques, procédures, etc., pour agir de manière plus adéquate.

L’ensemble de ces cinq dimensions devrait alors permettre de faire face à l’incertitude que vit une organisation à haute fiabilité selon les premiers auteurs de la théorie des HRO, à l’université de Berkeley dans les années 1990. Des pratiques consolidant l’organisation sur ces cinq dimensions devraient ainsi permettre d’améliorer la fiabilité.

Ces différents principes se sont affinés dans la théorie depuis ces deux dernières décennies. Ainsi, on considère désormais que l’organisation doit surtout se concentrer sur sa capacité d’adaptation à un environnement variant et surprenant. Nous pouvons recenser cinq processus cognitifs permettant cette adaptation sur deux modes d’action : l’anticipation et le confinement. Le premier mode relève de la capacité des individus à se représenter les possibilités d’évolution de l’organisation et des situations qu’ils vivent (comme une ouverture sur l’extérieur, une écoute de « ce qui se passe ») tandis que le second porte sur la focalisation des acteurs sur des bases solides de l’organisation pour agir (concentration sur ce qui est important en interne : procédures, connaissance accumulée, etc. sur lesquelles se reposer avec confiance).

1)    L’attention portée aux possibilités d’échec (anticipation) : puisque l’on n’est jamais à l’abri d’une erreur d’analyse, l’organisation hautement fiable doit être en mesure de se concentrer sur ce qui peut conduire à l’échec. Cependant pour une HRO, le processus d’apprentissage par essai-erreur est délicat du fait des conséquences catastrophiques des erreurs. Plutôt que d’analyser les erreurs, l’organisation va se focaliser sur les « presque-accidents », petites erreurs, etc. On utilise également de plus en plus des plateformes numériques de simulation. Ces évènements sont à la fois positifs et négatifs, car d’un côté ils montrent que l’organisation est capable de gérer un évènement potentiellement dangereux ; mais d’un autre côté il y a eu possibilité d’échec catastrophique malgré ses efforts. Cette façon ambivalente que peut avoir l’organisation de voir ces évènements relève d’une attitude de « sagesse ».

2)    La méfiance quant aux « redoutables simplifications[10] » (anticipation) : au niveau individuel comme organisationnel, les acteurs travaillent avec des représentations simplifiées de la réalité, manifestation du phénomène de « rationalité limitée » identifiée par Herbert Simon. Néanmoins, il faut que celles-ci soient pertinentes et donc régulièrement renouvelées. Pour cela, l’organisation doit être attentive à l’environnement, encourager la diversité analytique tout en faisant en sorte qu’en dépit de la diversité, les acteurs soient capables de mettre leurs représentations en commun pour développer une rationalité adéquate.

3)    La sensibilité au contexte opérationnel (anticipation) : aussi appelée « bulle opérationnelle » ou « conscience situationnelle », il s’agit de la carte cognitive qu’un agent construit et met à jour quant à la situation qu’il vit (principaux paramètres et leur évolution probable à court terme). Comme chacun fait ceci au niveau individuel, l’on ne peut pas avoir de bulle globale mais les bulles sont chacune partagées un peu pour avoir un procédé collectif, « chaque bulle se recouvrant partiellement »[11]. C’est une propriété systémique émergente issue de l’interaction continue et l’intégration de ces bulles multiples qui se met en place.

4)    L’engagement à la résilience (confinement) : si, d’une part, les acteurs improvisent, i.e. recombinent leurs actions et leurs idées pour répondre à un élément inattendu. « Les organisations hautement fiables se préparent pour des surprises inévitables par l’accroissement de leur connaissance générale, leur technicité et leur capacité à mobiliser ces ressources »[12], d’autre part, ils s’engagent à agir. En effet, agir permettra soit de simplifier la situation, soit d’avoir de nouveaux éléments pour prendre les bonnes décisions.

5)    La déférence à l’expertise (confinement) : en relâchant un peu la confidentialité des données, en les ouvrant à un peu plus de monde dans l’organisation, l’on favorise ainsi la possibilité de détection d’évènements singuliers car plus de compétences entrent en contact avec ces données[13]. Ceci peut se traduire par « la migration du lieu de décision en fonction du problème posé »[14]. De manière plus générale, l’expertise est ainsi valorisée au sein d’une HRO. Si l’on attend d’un novice qu’il se plie aux procédures à la lettre, l’on attend d’un expert qu’il improvise, ait de l’intuition, sache s’adapter. Les experts sont alors essentiels à la haute fiabilité, car ils permettront à l’organisation de s’adapter ; ils seront ceux qui sauront quoi faire lorsque les règles existantes ne peuvent appliquées.

Ces différents processus cognitifs sont toutefois interconnectés et ne doivent pas être traités séparément. L’intérêt est en effet d’observer des comportements plus globaux, qui permettront ou non de remplir les objectifs de ces cinq processus. Pour cela, de nombreuses préconisations ont été faites dans la littérature scientifique.

Des auteurs conseillent par exemple des redondances, des simulations et exercices, une prise de décision centralisée, un apprentissage des erreurs, de la prévention, et de considérer l’expérience personnelle comme un pré-requis. L‘on peut aussi mettre l’accent sur le travail organisé qui se déploie entre les acteurs pour conduire à la haute fiabilité.

De même, l’aspect « travail d’équipe » est essentiel à une HRO : travailler en équipe apporte l’avantage de réduire le nombre d’erreurs. Des études ont ainsi montré que les équipes faisaient moins d’erreurs que les individus pris séparément en raison de l’attention et des corrections apportées par les autres membres de l’équipe lors d’une activité. Pour autant, situer des personnes sur un même lieu géographique ne fera pas un travail d’équipe… ni une activité hautement fiable. L’esprit d’équipe est fortement rattaché à la volonté des acteurs de se coordonner et lorsqu’ils partagent le même but.

Le travail d’équipe se distingue ici du travail en groupe : dans la dynamique de groupe, l’appartenance au groupe est privilégié aux dépens de la poursuite du but. Cela peut mener aux décisions absurdes identifiées par Christian Morel (2011) à partir des accidents d’avion, où l’on voit un équipage prendre collectivement la décision implicite de mener l’avion vers le crash par impossibilité de remettre en cause un diagnostic erroné fait par le commandant de bord. La solidarité de l’équipage prend le pas sur les capacités d’analyse critique : Christian Morel identifie cette « loi du cockpit » comme un des nombreux phénomènes de « group think ». Neutraliser les phénomènes de groupe au profit de la dynamique d’équipe requiert des règles de management qui sauvegarde la liberté de jugement et de communication de chaque membre de l’équipe.

Le travail d’équipe est alors différent du travail sur une tâche mais les deux sont nécessaires dans des environnements complexes. La connaissance et la compétence vis-à-vis de la tâche ne seront pas toujours suffisantes à un travail d’équipe, ce dernier repose sur la capacité de chaque membre à anticiper les besoins des autres, ajuster ses actions en fonction du reste de l’équipe, avoir une compréhension de comment les choses doivent se dérouler : le partage d’information est donc un requis essentiel à tout travail d’équipe. Néanmoins, les HRO entraînent les acteurs sous forme d’exercices et simulations qui les mettent justement en situation d’équipe. Par exemple, les programmes d’entraînement d’équipes ont été une composante essentielle de l’industrie aérienne de l’atteinte de la haute fiabilité. Par ailleurs les équipes sont encapsulées dans un système d’équipes multiples et le travail d’équipe est requis par l’environnement de l’organisation.

De manière plus flagrante encore, il ne faut pas oublier que les cinq processus vu précédemment ne sont possibles que si l’organisation est apprenante. La culture de l’apprentissage est plus que nécessaire à une HRO, c’est même une philosophie ! Ainsi, des débriefings, le retour d’expérience systématique, des boucles d’apprentissage peuvent aider l’organisation à favoriser l’apprentissage organisationnel. Une organisation hautement fiable sera ainsi toujours attentive, de manière à tirer les leçons des évènements qui se produisent. La communication sera donc primordiale pour que l’organisation apprenne et s’améliore continuellement.

La notion d’erreur étant ambiguë, il est donc difficile d’obtenir une définition très stable des HRO. Néanmoins, les différents auteurs se sont accordés sur une capacité de l’organisation à gérer efficacement des conditions opérationnelles difficiles aux conséquences imprévisibles et  potentiellement dangereuses. Pour ce faire, l’organisation doit être capable de s’adapter, donc de changer : « no change, no HRO »[15].

Les principes établis par la littérature ne seront-ils pour autant utiles qu’aux organisations « extrêmes » de ce type, ou bien peuvent-ils être utiles à la fiabilisation d’organisations plus ordinaires ?

(2)

Chapitre II: Bien faire les choses

Chapitre 2: « Bien faire les choses », ou la qualité des organisations

« Nous savons peu de choses encore sur les modes de régulation de la plupart des systèmes, parfois même sur leur existence. Nous sommes incapables de maîtriser intellectuellement l’analyse de systèmes de systèmes que constituent les ensembles les plus vastes sur lesquels doit s’exercer l’action. Mais le fait que de nombreuses expériences d’analyses de systèmes ont démontré que l’on peut décoller de l’incrémentalisme au niveau opérationnel constitue déjà en soi un fait réconfortant. »

Michel Crozier, La Société bloquée, 1970

A…….. La loi de Parkinson, ou pourquoi la bureaucratie

1.1…. L’architecture plutôt que la quantité !

 

Commentaires:Sources:
Lectures et sources complémentaires:

 

 

 

 

1.2…. L’Etat wébérien : bonne et mauvaise bureaucratie… 75

Commentaires:Sources:
Lectures et sources complémentaires:

 

1.3…. Qu’est-ce la performance publique ?… 76

Commentaires:Sources:
Lectures et sources complémentaires:

1.4…. Qu’est-ce qu’un processus ?… 79

Commentaires:Sources:
Lectures et sources complémentaires:

B…….. Quand on n’a qu’un marteau dans sa boîte à outils, tous les problèmes prennent la forme d’un clou

2.1…. Magie des outils : fées et sorcières

Commentaires:Sources:
Lectures et sources complémentaires:

2.2…. La boîte à outils… 82

Commentaires:Sources:
Lectures et sources complémentaires:

2.3…. Le contrôle de gestion… 84

Commentaires:Sources:
Lectures et sources complémentaires:

2.4…. L’assurance qualité… 88

Commentaires:Sources:
Lectures et sources complémentaires:

 

2.5…. Faire pleuvoir où c’est sec : la réingénierie des processus.

Commentaires:Sources:
Lectures et sources complémentaires:

2.6…. La pratique à bon escient du « benchmarking »… 97

Commentaires:Sources:
Lectures et sources complémentaires:

2.7…. Le tableau de bord prospectif… 99

Commentaires:Sources:
Lectures et sources complémentaires:

2.8…. Du bon usage des indicateurs… 113

Commentaires:Sources:
Lectures et sources complémentaires:

C…….. Les systèmes d’information : la continuation de la politique par d’autres moyens

3.1…. Les perspectives ouvertes par les TIC… 120

Commentaires:Sources:

Je reprends ici l’histoire communément admise de l’intox montée par Nathan Rotschild pour spéculer sur le résultat de la bataille de Waterloo. Niall Fergusson dans The Ascent of Money (je conseille l’édition anglaise, la traduction française est scandaleuse car les notes n’ont pas été traduites, soit plus de 80 pages supprimées!) contredit cette version en soutenant qu’elle a été propagée par Goebbels pour montrer la rouerie des banquiers juifs, et que l’histoire a été reprise. Le fait est que Nathan Rothschild a bien fait sa fortune à l’occasion de la bataille de Waterloo, mais d’un autre manière:  il était en charge d’émettre des bons du Trèsor pour financer la guerre contre Napoléon, bons du trésor qui étaient souscrits en or dans toute l’Europe (et qui servaient à financer tout les opposants à l’Empereur). Avec Waterloo, Nathan se retrouve à la tête d’une énorme somme d’or dont n’ont plus besoins les puissances, une fois la guerre finie. Waterloo aurait donc plutôt été la faillite de Rothschild. Son génie est de continuer à acheter de la dette publique qui était à cette époque en dessous du prix d’émission compte-tenu du risque de guerre, l’intérêt étant payé sur le nominal. Il suivra cette politique pendant plus de deux ans: le cours des bonds va grimper puisque le risque de guerre va disparaître. Nathan va alors vendre et fera fortune.

Il sera surnommé le « Napoléon de la finance ».

Bien, donc rien à voir avec les systèmes d’information. Il reste que l’histoire de la spéculation prétée à Nathan, si elle est fausse est néanmoins plausible et que des intox comme cela il y en a tous les jours !

[amazon_image id= »B002W2CZH0″ link= »true » target= »_blank » size= »medium » ](The Ascent of Money: A Financial History of the World) By Niall Ferguson (Author) Paperback on (Jun , 2009)[/amazon_image][amazon_image id= »1615456635″ link= »true » target= »_blank » size= »medium » ]The Ascent of Money: A Financial History of the World [With Earbuds][/amazon_image]
Lectures et sources complémentaires:

3.2…. Prestige et vertiges des technologies de l’information… 124

Commentaires:Sources:
Lectures et sources complémentaires:

3.3…. Comment équilibrer les relations avec les fournisseurs ?… 127

Commentaires:Sources:
Lectures et sources complémentaires:

D…….. Etude de cas : la reconfiguration du SDIS 13……. 133

La présentation de ce chantier aux Dialogues franco-américains d’administration publique, que j’ai organisés à Bercy les 29 et 30 novembre 2010:

4.1…. Pourquoi ce chantier ?… 133

4.2…. Le système d’information comme architecture de l’organisation… 135

4.3…. Le monde des processus : Conditions de réussite d’une démarche BPM… 141

4.4…. De la modélisation des processus au système d’information… 145

4.5…. Le monde des données… 146

4.6…. Conclusion :… 149

E…….. Vers l’organisation résiliente……. 149

F…….. Les consultants : aide ou fil à la patte ?……. 154

6.1…. Achetez leurs mains et gardez votre cerveau… 154

6.2…. On trouve sur le marché plusieurs sortes de consultants :… 155

6.3…. Comment bâtir un contrat « gagnant-gagnant » avec son consultant ?… 156

6.4…. Il faut savoir se dire au revoir !… 158

Commentaires:Sources:
Lectures et sources complémentaires:

 

G…….. Pourquoi la queue remue-t-elle le chien ?……. 159

Commentaires:Sources:
Lectures et sources complémentaires:

 

7.1…. Des leaders porteurs de sens dans le service public ?… 161

7.2…. Les conditions pour que le chien puisse remuer la queue… 162

H…….. Conclusion : Pour pratiquer une politique de la valeur il faut redonner de la valeur à la politique……. 164

 

(0)

Identifier les macro processus

Identifier les macro processus.

 

1 / IDENTIFIER POURQUOI FAIRE ?

Pour saisir le réel, il faut aller se cogner aux choses et aux événements. Il s’agit ni plus ni moins de comprendre comment fonctionnent les activités et processus généraux de l’entreprise afin d’élaborer une représentation intelligible la plus fidèle à la réalité, et assez simple pour être lisible, par exemple sous forme graphique, par un diagramme qu’on appellera cartographie.La cartographie des processus est-elle obligatoire ?

C’est dommage de toujours évoquer les choses à partir de leurs outils et non pas à partir d’elles memes. La cartographie est un moyen de rendre visible, une modélisation, mais elle n’est pas exigée par la Norme. Les auditeurs la réclament et s’appuient sur elle car elle leur est d’un grand secours. Elle constitue un bon outil de travail et d’aide à la décision dans la mesure ou elle modélise les processus et ses enchainements.

La méthode et moyens choisis pour représenter et figurer les processus et les séquences et interactions entre eux ne sont pas mentionnés dans la norme. Si les personnes sont plus à l’aise dans la lecture d’un tableau ne surtout pas s’appliquer à user d’un schéma à double ou triple entrée dont la lecture leur resterait hermétique. Il est important de viser la simplicité et de penser aux modes de restitutions prisés dans l’entreprise et d’en prendre compte : beaucoup de personnes ne savent pas forcément lire un schéma aux entrées multiples. Dans ces conditions un tableau suffit, l’objectif étant de bien communiquer le contenu (et non le contenant).

En effet, la finalité de tout ce travail n’est pas la cartographie en elle-meme, mais l’information qui dégage de la démarche : une vision globale concordante et convergente de se qui se fait au sein d’une structure donnée en lien avec les objectifs qu’on lui assigne ou qui lui faudra doter.

2/ DE QUOI S’AGIT-il ?

3/ COMMENT DRESSER LA CARTOGRAPHIE ?

4/ DES PROCESSUS ORIENTES CLIENT

– Comment élaborer une cartographie de processus ? Assez rapidement et pour entrer dans le vif du sujet il est utile de « brainstormer » les activités de l’entreprise selon le prisme client.

Il est important de ne pas perdre de vue, surtout à ce stade,l’orientation client que doivent avoir les processus, ainsi que leSystème de Management de la Qualité.

Un processus doit servir les besoins d’un client, externe ou interne. Si on oublie cet objectif, on court le risque d’introduire des processus correspondant à des activités « historiques » de l’organisme, qui ne sont parfois plus utiles du tout à la satisfaction des clients, qui consomment des ressources… et qu’il faudrait donc remettre en cause.

Tout au long du cycle de vie du produit la prise en compte des attentes et besoins clients doit être permanente – et à l’esprit de chacun dans ses actes.

5/ LES PROCESSUS STRATEGIQUES

– Comment identifier les processus stratégiques ? 

Pour créer de la valeur les entreprises réalisent deux grands types d’activité, qui s’ordonnent et se complètent au sein d’une chaîne de valeur.

Les premières correspondent à l’ensemble des opérations ou activités réalisées par l’entreprise dans le processus de transformation. Les secondes ont pour premier rôle de faciliter le bon déroulement des activités primaires, et pour deuxième rôle de permettre à l’entreprise son adaptation à l’évolution de l’environnement, et de se développer. 

Les activités de soutien fournissent des services et mettent des moyens humains, matériels et financier à disposition des activités primaires. De plus elles ont un rôle important dans la gestion de l’entreprise car c’est par les activités de soutien que l’entreprise élabore des règles et des procédures permettant l’allocation les ressources disponibles aux différentes unités qui composent l’entreprise.Les activités de soutien ne sont donc pas localisées à un endroit précis du processus linéaire de production. Elles concernent l’entreprise dans sa globalité.

comme gérer une entreprise consiste à élaborer un ensemble de règles et de procédures pour améliorer le processus de création de valeur, pour le développer et ainsi assurer la pérennité de l’entreprise, c’est vers ces activités que vont se tendre les premiers efforts de la démarche qualité. 

Il s’agit de surcroit d’identifier les processus clefs dont la caractéristique est d’être critiques pour le succès de l’entreprise et où il importe d’inscrire des actions et efforts prioritaires.

a- Déterminer quels sont les enchaînement d’activités

b- Identifier les exigences besoins et attentes des parties intéressées et exigences réglementaires

c- Cartographier les processus stratégiques opérationnels (incontournables qui incarnent le coeur de métier de l’entreprise : son activité de base – déclinée en activités associées, ceci en rapport avec les clients et la valeur ajoutée qu’ils apportent)

d- les processus de soutien et de pilotage;

e- Cartographie à plat pour schématiser les processus

f- Cartographie en relief pour déterminer les priorités d’analyse et de maîtrise des processus. Il s’agit d’agrémenter la première cartographie en liaison avec les moyens de maitrise des processus.

Source: Identifier les macro processus.

(2)