De la création de connaissance à la création de valeur - Site de Claude Rochet

Compteur

  • 45610Lectures totales:
  • 18782Visiteurs Total:
  • 300Visiteurs par jour:
  • 0Visiteur en ligne :

Droits de reproduction

Les publications de ce site sont placées sous licence Creative Common. Ils peuvent être repris à condition de citer leur auteur [Claude Rochet], leur source [Site personnel de Claude Rochet], url de la page correspondante, de ne pas modifier le contenu, de ne pas en tirer commerce.

Un endroit de rêve pour vos vacances

Un endroit de rêve pour vos vacances
Iconomie

De la création de connaissance à la création de valeur

Partager:

Par Claude Rochet

Publié dans les cahiers de recherche du CIGREF, 2005

Le plan stratégique CIGREF 2005, formulé en 2001, adoptait comme axe « la création de valeur par le S.I ». Il reposait alors sur une vision et une intuition, dans le contexte d’éclatement de la bulle technologique, que l’ère de la sophistication technique, assise sur des investissements importants, n’était plus le levier essentiel de la création de valeur.

La recherche dans le domaine des technologies de l’information, corroborée par les faits, a montré la justesse de cette intuition. Dans le Cahier introductif de 2004, qui ouvrait le programme de recherche du Cigref, nous démontrions plusieurs tendances fondamentales :

Il y a bien une révolution technologique, semblable aux deux révolutions industrielles précédentes : celle de la machine à vapeur et de la métallurgie qui s’annonce à partir de 1750 en Angleterre, puis celle de la chimie qui apparaît un peu plus d’un siècle plus tard, fondée sur la chimie et l’électricité. Il y a révolution industrielle quand les paramètres de la productivité du travail et de l’organisation industrielle sont bouleversés par de nouvelles possibilités de création de richesse. Une révolution industrielle déclenche le processus de « destruction créatrice » qu’a décrit Schumpeter : la première révolution industrielle a vu la fin du mode de production fondé sur l’agriculture traditionnelle, elle-même touchée par la hausse des rendements qui permet l’exode rural et l’apport de main-d’œuvre à la nouvelle industrie, pour l’affirmation de l’industrie dominée par une nouvelle classe sociale de capitalistes. La seconde révolution industrielle a vu l’apparition de la grande firme, caractérisée par l’organisation scientifique du travail qui permettait de rechercher la rentabilité des investissements, et une prise de pouvoir progressive par la technostructure, comme l’a analysé John K. Galbraith. Cette destruction créatrice » ne concerne pas seulement les modes de production, mais aussi les consensus sociaux et le cadre institutionnel du cycle technologique précédent.

La création de valeur par les technologies de l’information n’est pas corrélée avec les investissements informatiques. Jusqu’en 1995, le phénomène marquant est le « paradoxe de Solow », soit une corrélation négative entre investissements informatiques et croissance de la productivité du travail. Après l’éclatement de la bulle spéculative du NASDAQ de 2001, le phénomène s’inverse : les investissements informatiques décroissent et l’augmentation de la productivité continue sa progression.

La recherche académique a permis de montrer que les ressorts de la création de valeur, tant au niveau de la firme que des nations, repose sur des leviers non technologiques que sont les processus d’innovation dans les modèles d’affaires, les procédés, les produits, l’organisation du travail, les compétences organisationnelles, les métiers, bref, dans l’ensemble de ce que Bruno Amable appelle, les « systèmes sociaux d’innovation et de production ». L’étendue de ce champ est le signe que nous sommes bien en situation de révolution industrielle, où une technologie générique vient bouleverser l’ensemble, non seulement de l’industrie, mais aussi le cadre institutionnel et l’organisation sociale des sociétés[1].

Dans ce second cahier nous nous focaliserons sur la création de valeur par l’innovation dans le S.I au niveau des organisations,  qu’elles soient publiques ou privées.

Auparavant, cette introduction soulignera ce qu’est et ce que peut être la contribution de la recherche académique dans la création de connaissance nécessaire pour éclairer les décisions stratégiques des firmes, et plus particulièrement des DSI.

Ce qu’apporte la recherche en systèmes d’information

Le directeur de systèmes d’information et tous ceux qui sont en charge de prendre des décisions dans la matière ont à leur disposition une littérature importante dont il importe de bien situer les contributions et les limites. On peut sommairement les classer en trois catégories :

  • Les études des sociétés de conseil, plus ou moins liées aux fournisseurs de technologies.
  • Les rapports des organismes professionnels, comme le Cigref.
  • Les productions de la recherche académique.

Les études des sociétés de conseil

Les productions des sociétés de conseil ont une première limite qui est leur manque d’indépendance par rapport aux intérêts commerciaux de leurs auteurs. Leur seconde limite repose sur leur méthode de travail qui procède généralement de l’analyse comparative (le benchmarking) entre sociétés participantes à un panel d’enquête, généralement par questionnaire.

La pratique du questionnaire est peu évaluée. En 1997, deux chercheurs canadiens s’intéressent à l’impact de l’EDI et adressent un questionnaire à 875 professionnels et reçoivent 379 réponses. Trois versions du questionnaire ont été utilisées, avec pour seule différence l’ordre des questions. Les résultats obtenus sont significativement différents pour la moitié des questions (Peaucelle, 2001). Ce qui apparaît comme objectif avec une solide base empirique est donc bien souvent plus fondé sur des opinions qui peuvent être induites par le questionnaire lui-même que sur des faits. La confection d’un questionnaire prend donc du temps et est un processus de conception en soi qui doit faire l’objet de tests pour en asseoir la validité.

L’objet de l’étude est généralement centrée sur l’identification des « meilleures pratiques », soit une recherche de corrélation entre la performance de l’entreprise et les pratiques managériales. Ainsi, le groupe Aberdeen structure son étude sur les ruptures qui vont affecter la fonction de DSI en 2005[2] autour de :

  • Un questionnaire en ligne, structuré autour de quelques questions clés : comment les firmes leaders gèrent-elles le changement technologique ? Quelles sont les technologies émergentes qui vont impacter les firmes en 2005 ?Quels sont les éléments clés d’une planification stratégique des TI ? Quels sont les indicateurs de performance pertinents ?
  • Un panel de grandes entreprises, avec une segmentation par type de répondant.
  • Une méthode d’analyse comparative.
  • Une grille de rapprochement entre l’analyse comparative et la performance de l’entreprise.
  • Une dispersion des pratiques selon une courbe de Gauss où l’on peut identifier les pratiques des « meilleurs élèves » (best in class), du groupe médian et des retardataires.
  • Des préconisations pour chacun de ces groupes

Sous la réserve de méthode formulée à propos du questionnaire, ces études sont utiles pour donner une photographie des pratiques à un moment donné et dessiner une tendance. C’est la définition même de l’étude empirique. Tout le problème de ce genre d’étude réside dans la construction des conclusions pour l’action. La méthode de ces études empirique est l’induction : on induit le semblable à partir du semblable. La répétition des pratiques et leur corrélation avec la performance, sont traités comme des critères de vérité, selon les principes du positivisme dont les bases ont été posées par Auguste Compte au début du XIX° siècle.

La limite des analyses inductives est de deux ordres : une limite épistémologique qui est liée au principe même du positivisme et de l’induction qui nie toute vérification par la capacité de bâtir une théorie explicative cohérente. Les méthodes de recherche en gestion, grâce aux progrès de l’épistémologie, en particulier ceux de Karl Popper, proposent généralement de coupler la méthode inductive (l’analyse des faits et les hypothèses qu’ils induisent) avec la méthode hypothético-déductive (une tentative de formulation d’une hypothèse théorique explicative qui est testée dans la réalité).

La deuxième limite de cette méthode est le biais anti-innovation qu’elle induit : les meilleurs élèves sont inviter à mieux faire, et les retardataires à rattraper les meilleurs. Le biais uniformisant du benchmarking appliqué à la stratégie a été souligné par une importante littérature.

Ce biais peut aller jusqu’à la formation de dogmes institutionnalisés, dont les vendeurs de technologies ne sont pas étrangers, qui tiennent lieu de vérité obligatoire. Dans leur étude sur les décisions d’externalisation de fonction dans les grands groupes, Christophe Bourgeois et Aude Martin (2005) constatent que l’assertion « pour gagner de l’argent il faut externaliser parce qu’un prestataire fait mieux et moins cher » suscite une adhésion par mimétisme institutionnel, alors même que les répondants déclarent avoir l’intuition personnelle que la décision d’externaliser a été prise en surpondérant les paramètres économiques à court terme aux dépens de paramètres stratégiques.

Les études des organisations professionnelles

Ces études ont pour principal avantage d’être indépendantes des fournisseurs et de reposer sur la pratique des utilisateurs. Les rapports du Cigref appartiennent à cette catégorie. Elles sont produites par échange d’expérience entre pairs, permettent de créer une vision commune des problèmes décrits par un langage commun qui est celui des praticiens.

Leur méthodologie sous-jacente n’est pas l’analyse comparative mais plutôt le retour d’expérience qui permet de conceptualiser une pratique empirique. Sous réserve de précautions méthodologiques élémentaires comme l’hétérogénéité suffisante des participants au groupe de travail, il y a une réelle production de connaissance qui permet à chacun d’analyser sa pratique et surtout de la formaliser.

Ces études peuvent prendre également la forme d’enquêtes, comme dans le cas de l’étude Cigref – McKinsey sur les relations entre DSI et directions générales. Ce type d’étude permet de dessiner une tendance générale, d’identifier des régularités, de tracer des cadres d’analyse que chacun peut s’approprier et qui peuvent à leur tour venir contribuer à enrichir le retour d’expérience.

Ces études ne sont toutefois pas exemptes du défaut de l’induction si l’on tente d’en tirer des vérités générales, des « bonnes pratiques » universelles, qui ne sont pas soumises au principe de validation par analyse hypothético-déductive.

Il manque ce que Karl Popper appelait « une science sociale technologique » qui tient compte de l’histoire, construite par l’enquête et le retour d’expérience, comme source d’information sur les régularités qui permettent de formuler des principes généraux (auxquels peuvent se rattacher les « bonnes pratiques » une fois validées) et qui permet de les mettre en œuvre en gérant les contingences de toute nature (organisationnelles, conjoncturelles, culturelles…) dans la conception d’usage, soit l’ingénierie.

Combler ce manque et doter le concepteur et le stratège d’une connaissance « vraie » pour éclairer ces décisions, tel est l’objet de la recherche académique.

La recherche académique

La recherche académique en système d’information est récente. Elle peine à se distinguer des études empiriques professionnelles, qui, tant aux Etats-Unis qu’en France, représentent presque 80% des publications. L’évaluation de cette recherche dans les années 1980 a porté sur la rigueur des méthodes d’analyse employées pour éviter les biais précédemment décrits, notamment si les enquêtes ont satisfait aux critères classiques de constitution de l’échantillon, de vérification de sa représentativité, de méthode d’analyse. Sur une échelle de 0 à 9, le score moyen a été de 3 (Peaucelle, 2001).

Du côté de la production de concepts, les véritables théories manquent, renforçant le cantonnement dans les démarches inductives.

La recherche académique en systèmes d’information souffre de deux défauts propres à la méthode académique :

  • D’une part, le jugement par les pairs qui est à la base de la méthode de production scientifique académique n’est pas forcément adaptée à une matière en innovation rapide. La production d’un papier dans une revue scientifique dure au moins deux ans, de sorte qu’un thème de recherche peut être obsolète au moment de sa publication. Pour un thésard qui entreprend une recherche en systèmes d’information, il est important qu’il se projette plusieurs années en avant pour essayer d’anticiper le rythme de l’innovation. Ainsi, s’il fallait travailler sur le principe des ERP dans les années 1980, la conduite de leur implantation dans les années 1990, le début des années 2000 devrait être consacré à comment en sortir pour passer à d’autres solutions émergentes.
  • La recherche de la rigueur exige la normalisation de la production scientifique, d’où un langage parfois lourd à manier qui n’est pas favorable à une communication aisée avec les professionnels : ainsi, la diffusion de la production académique parmi les professionnels de l’informatique en France reste très faible.

La rigueur aurait-elle donc pris le pas sur la pertinence des thèmes de recherche et de la production ? On semble actuellement assister à une évolution du domaine avec l’arrivée à maturité des technologies de l’information qui atteignent le stade de la technologie générique qui devient un levier d’innovation dans tous les domaines. L’arrivée au stade de technologie générique est un des signes de l’existence d’une révolution industrielle au sens précédemment décrit. Dans les années 1980, seuls les néo-schumpétériens réunis autour de Christopher Freeman et de Keith Pavitt au Science Policy Research Unit (SPRU) de l’Université du Sussex annonçait une telle révolution industrielle[3].

La première phase de la recherche en S.I, qui portait sur l’usage que l’on pouvait faire d’une technologie naissante – tout comme il y eut de la recherche sur l’usage de l’électricité ou de la chimie – pourrait donc désormais se fondre dans la recherche en innovation, ce qui l’inscrit dans un champ beaucoup plus vaste que le Cigref entend cultiver : celui de la recherche sur la création de valeur par l’innovation reposant sur l’usage des technologies de l’information.

Ce champ est celui de la transformation des modèles d’activités et des organisations, de la sociologie des usages, de l’évolution des institutions, de la transformation des métiers et des consensus sociaux.

L’explorer requiert la production d’une base de connaissance appropriée.

Pourquoi et comment créer de la connaissance scientifique pour le DSI?

Dans son plan stratégique, le Cigref s’est fixé pour objectif d’intégrer les acquis de la science pour façonner la construction de la société de l’information. Cela veut dire doter les DSI de connaissance « vraie » permettant d’une part la prédiction et par voie de conséquence la prise de décision. Nous touchons là aux « sciences sociales technologiques » qu’évoquait Karl Popper : la prédiction peut annoncer la survenue à des périodes régulières et probables d’ouragans en provenance d’une direction déterminée, l’ingénierie technologique et sociale permettra alors de prendre les décisions nécessaires pour renforcer les bâtiments et préparer les populations.

Apparemment simple, l’exercice est en fait redoutable : le monde des technologies de l’information, notamment dans la phase lyrique de la « nouvelle économie » a été soumis à un bombardement de prédictions annonçant la survenue de nouveaux « lendemains qui chantent » qui allaient faire « du passé table rase ». Tout moderne qu’il soit, le monde des T.I n’échappe pas à un des plus vieux problèmes de l’épistémologie : le rapport entre le déterminisme dérivant de lois historiques et la liberté de l’acteur pour influer sur le cours des choses.

Un courant encore dominant dans les sciences sociales est l’historicisme. Pour l’historiciste, il y a à la fois des lois générales de l’histoire qui gouvernent le passage d’une période historique à une autre, et impossibilité pour l’acteur d’agir sur le cours des choses, hormis l’activisme pour favoriser l’accouchement des prophéties historiques. Il faut y voir ici l’influence du déterminisme en philosophie qui apparaît à l’époque moderne avec Hegel, mais surtout avec le marxisme dont le « sens de l’histoire » a toujours une influence importante dans les sciences sociales. Les conséquences pratiques sont la floraison de gourous qui annoncent une « révolution » à chaque nouveauté technique et dont la seule préconisation est l’activisme pour aller dans le courant du progrès.

Les sciences de gestion ont aujourd’hui intégré les apports de la philosophie et de l’épistémologie pour tenter de fonder une méthode de recherche appropriée à la production de connaissance scientifique.

Plusieurs questions de méthode se posent :

Comprendre et agir sur la réalité

C’est sans doute une des plus vieilles question de la philosophie : Pouvons connaître le réel et quel est notre pouvoir sur lui quand la technologie nous donne une capacité de transformation de notre environnement inégalée dans l’histoire ? La recherche en gestion adopte un point de vue qui laisse place à un pluralisme de méthodes que l’on peut regrouper sous le vocable de « constructivisme », qui signifie que nous travaillons sur des constructions de la réalité – des modèles – et non sur la réalité elle-même. Ce constructivisme peut être radical quand il considère que la réalité elle-même n’est qu’une construction qui est le produit des idées dominantes adoptées par le chercheur. Cette approche du réel construit rejoint à notre sens l’historicisme qui nie au chercheur et au praticien toute capacité d’intervention sur le réel hormis la reconnaissance des lois de l’histoire et l’activisme pour favoriser leur accouchement.

Nous adopterons ici la position développée depuis l’école de Vienne jusqu’à Karl Popper, en passant par l’école du positivisme logique de Chester Barnard et de Herbert Simon aux Etats-Unis et la théorie générale des systèmes qui s’est particulièrement développée en France sous l’influence de Jean-Louis Le Moigne : Notre rapport à la réalité passe par la construction de modèles de sa représentation. Nous ne raisonnons donc que sur des modèles qui sont enrichis par des va-et-vient successifs avec le réel en permettant de construire des théories explicatives.

Les individus, a montré Herbert Simon, fondateur des sciences de la conception, ont une rationalité limitée qui ne leur permet pas d’appréhender toute la complexité du réel. Les organisations et, au-delà, les institutions, ont pour objet de définir des cadres qui pallient cette rationalité limitée en fixant des repères et des règles. Ce sont les « routines organisationnelles » identifiées au début des années 1980 par Nelson et Winter. Ce sont des pratiques formalisées ou non, des automatismes qui constituent le capital d’intangibles de l’entreprise à la base de sa performance.

Au fur et à mesure que progresse la connaissance, l’entreprise travaille sur des artefacts (objets technologiques, modèles d’affaire) de plus en plus complexes dans des marchés qui le deviennent aussi. Les modèles qui fondent son intervention sur le réel et les routines organisationnelles qui les sous-tendent doivent elles aussi se complexifier au regard du principe de pilotage des systèmes complexes : le système le plus complexe pilote le système le moins complexe.

Ainsi, si une entreprise qui voit son environnement se complexifier ne peut complexifier des modèles d’intervention et enrichir ses routines organisationnelles elle devient pilotée par son environnement et perd sa capacité d’innovation.

Le réel est donc à la fois déterministe et indéterministe. L’identification de régularités dans la réalité et leur compréhension par des théories valides permet de prédire des grandes tendances. Ces grandes tendances peuvent être, par exemple, l’alternance des cycles technologiques qu’a identifiée Schumpeter et que l’on connaît aujourd’hui avec plus de précision[4]. On peut ainsi prédire que le processus de « destruction créatrice » doit inspirer une gestion prévisionnelle des compétences en préparant la reconversion des ingénieurs de hardware en ingénieurs de software, puis de ceux-ci en ingénieurs d’orgware et plus loin encore de brainware.

Le déterminisme ne s’exerce pas seulement au niveau des grandes lois de l’évolution historique : il s’exerce aussi au niveau des firmes et des nations. Chaque culture et chaque histoire nationale a produit des arrangements institutionnels, des modes de régulation des consensus sociaux et des pratiques sociales qui conditionnent l’évolution ultérieure. Il y a ainsi six formes de capitalismes différents en Europe identifiés par Bruno Amable. Ces arrangements institutionnels et ces pratiques sociales sont à la base des systèmes nationaux d’innovation (SNI) qui définissent des modes d’interaction entre la science, la technologie et l’économie, dépendants de la culture et des institutions.

Mais l’existence d’un déterminisme ne signifie pas que l’avenir est limité à la mise en œuvre des lois inexorables de l’histoire. Ce déterminisme définit une « dépendance de sentier » qui définit notre capacité d’apprentissage et d’innovation. On n’innove qu’à partir de sa propre histoire, de sa culture et avec ses modes de régulation. Ces modes différents d’innovation sont à la base de la création d’avantages concurrentiels entre les nations. L’art de la stratégie est d’apprendre à jouer de sa dépendance de sentier et non d’adopter un modèle unique de développement, généralement prôné par la puissance dominante. Si la dépendance de sentier se révèle hostile à l’innovation, une action politique vigoureuse peut permettre d’inverser la tendance : ce fut le cas du Japon au XIX° siècle, c’est le cas aujourd’hui de la Chine qui, grâce à la dictature du Parti communiste, a brisé le cadre féodal hostile à l’innovation de la culture confucéenne et est potentiellement le premier pays capitaliste d’ici quelques décennies.

Nous devons donc naviguer entre deux écueils : l’obéissance passive ou active à un pseudo « sens de l’histoire » et la négation totale des régularités historiques, institutionnelles et organisationnelles qui nous porterait à croire que « tout est possible ». « L’avenir est ouvert » déclarait Karl Popper, mais cela ne veut pas dire qu’on peut faire n’importe quoi. C’est la méthode de formulation des hypothèses et leur expérimentation qui permettra de tracer la démarcation entre la démarche scientifique et les pseudosciences des gourous.

Questions de méthode

La démarche scientifique a pour objet de produire de la connaissance « vraie », des théories valides et des modèles pertinents qui nous donne du pouvoir sur la réalité. Cette production repose sur trois pratiques que le chercheur devra judicieusement agencer.

  • La première est l’induction qui est un point de passage obligé de toute démarche empirique : on observe une réalité par enquête, analyse statistique, étude historique et on parvient à dégager des régularités. Les positivistes vont conférer le statut de loi à une régularité suffisamment répétée par aversion pour toute confirmation par une théorie explicative. La vérité est donc induite par la répétition de l’observation. La pratique du benchmarking peut donc conduire à des généralisations inductives si l’on adopte le syllogisme « les meilleurs ont telles pratiques, donc en adoptant ces pratiques on deviendra les meilleurs ».
  • La seconde est la déduction : à partir d’une analyse théorique on formule une hypothèse qui est mise à l’épreuve de la réalité par l’expérimentation. Cette expérimentation peut à son tout induire une nouvelle hypothèse. Il y a donc un cycle induction – déduction qui permet la construction d’une théorie explicative.
  • La troisième est l’abduction, développée par le philosophe américain Charles Pierce, qui, alors que l’induction infère le semblable à partir du semblable, va inférer le différent à partir du semblable. On peut par exemple observer que « tout travail urgent déclenche une panne de l’imprimante ». Là où le raisonnement par induction en tirera une loi fatale, le raisonnement par abduction cherchera une hypothèse explicative, par exemple, le stress de l’utilisateur en situation d’urgence peut perturber la relation entre l’homme et la machine. Le raisonnement par déduction tentera ensuite de construire des hypothèses sur la résilience de l’interface homme-machine qui seront mises à l’épreuve par expérimentation empirique, soit par induction.

L’apport de Charles Pierce permet donc de concevoir la production de connaissance scientifique comme un cycle abduction – déduction – induction.

Reste alors à résoudre un dernier problème : comment reconnaît-on une connaissance « vraie » ? Le cycle décrit permet de formuler une théorie explicative. L’école de Vienne du positivisme logique considérait qu’une théorie pouvait être considérée comme vraie lorsqu’elle était vérifiée expérimentalement. Karl Popper a critiqué cette théorie qui laissait trop de place à la subjectivité de l’observateur. Il a proposé d’y substituer un autre critère : la corroboration ou la falsification. Une théorie est corroborée lorsqu’elle résiste à l’épreuve des tests, ou encore lorsque qu’on ne peut démontrer qu’elle est fausse. Si l’observation de 99 poules noires me permet d’induire que « toutes les poules sont noires », il suffit que je rencontre une seule poule blanche pour falsifier ce qui était jusque-là considéré comme vrai.

Une vérité n’est donc vraie que tant que l’on n’a pas démontré qu’elle était fausse. La connaissance humaine progresse par cycles successifs de résolution de problèmes de plus en plus complexes.

Nous touchons là à un point essentiel en gestion de la technologie.

La technologie, c’est de la connaissance

L’historien de la technologie Joël Mokyr, professeur à Northwestern, a développé une approche originale de la technologie, cohérente avec les autres recherches sur la dynamique de l’innovation. Revenant à l’étymologie du mot, il distingue la techné – la technique – du logos – la connaissance. La technologie, comme assemblage des deux, est considérée comme le stock de meilleures pratiques permettant de créer des artefacts qu’il définit comme étant de la « connaissance utile » qui se compose de deux types de connaissance :

  • La connaissance « quoi » (ou épistémique) qui est constituée de l’ensemble des théories admises et des croyances quant aux régularités observées dans les phénomènes naturels. C’est donc une connaissance différente de la connaissance scientifique puisqu’elle repose sur des croyances. Ce sont des théories vraies non pas du seul point de vue scientifique mais du point de vue de ce que nous sommes prêts à accepter comme « vrai ». Dans notre pratique quotidienne, nous basons nos jugements et nos décisions sur ce que nous croyons comme juste et vrai et nous ne prenons pas des décisions en observant un protocole scientifique.
  • La connaissance « comment », (ou empirique) est composée de l’ensemble des techniques connues et accessibles dans une société. C’est l’ensemble des instructions exécutables, des routines, des savoir-faire codifiés de manière tacite ou explicite.

Jusqu’à la première révolution industrielle, le progrès technique est largement basé sur la seule connaissance « comment » : il suffisait de savoir comment marchaient les choses sans savoir pourquoi elles marchaient. Le moulin à eau s’est développé sur une base purement empirique sans aucun fondement sur la connaissance des lois de l’hydraulique.

Depuis la première révolution industrielle et surtout depuis la seconde, il n’est plus envisageable de développer une technique sur cette seule base : toute technique a besoin d’être supportée par une base cognitive de connaissance « quoi ».

La performance des nations peut alors s’analyser comme une économie politique de la connaissance qui est la capacité à augmenter la base de connaissance « quoi » pour alimenter la base de connaissance « comment ». Cette économie politique de la connaissance est donc la gestion de deux processus bien différents : la création de connaissance et sa diffusion.

  • La connaissance épistémique est une connaissance pour elle-même, qui est produite « pour l’amour de la connaissance » par un petit nombre de personnes et est généralement le fruit du hasard. Cette génération de connaissance obéit elle-même à un processus évolutionniste de tri-sélection qui va lui-même dépendre de l’état de la connaissance existante, en application du principe de dépendance de sentier.
  • La connaissance empirique progresse par apprentissage par l’action, ce que l’on appelle le learning by doing, mais cette progression est limitée à l’amélioration et ne permet pas d’intégrer les ruptures intervenues dans la base de connaissance épistémique.
  • L’approche de Mokyr est totalement cohérente avec la nouvelle théorie de la croissance, ou croissance endogène, où les facteurs essentiels de production ne sont plus le capital et le travail, mais le progrès technologique fondée sur le progrès de la connaissance. Cette distinction est essentielle, car dans la théorie classique de la croissance les rendements sont décroissants puisque les ressources sont limitées, alors que le progrès de la connaissance n’est pas limité : l’analyse historique permet de montrer que les pays leaders ont basé leur performance sur leur capacité à créer et à diffuser de la connaissance plus que sur leur capacité à gérer leurs ressources en dotation de facteurs de production.[5]
  • mokyr

La performance et l’obtention de rendements croissants vont donc résulter de la conjugaison de ces deux mouvements : la rapidité du processus d’accumulation de connaissance épistémique, lui-même soumis au principe des rendements croissants car plus la base de connaissance de départ est importante plus elle permet de créer de nouvelle connaissance, et la capacité de transformation de cette connaissance en artefacts, soit l’innovation par l’usage. L’innovation est la rencontre de ces deux mouvements : la découverte dans la base épistémique, et l’invention dans la base de connaissance empirique.

La relation entre recherche académique – lieu de création de connaissance pour elle-même – et l’entreprise – lieu de création d’artefacts – est donc un levier très important d’innovation. C’est la fluidité des relations entre ces deux mondes qui est à la base de la performance du système national d’innovation américain.

Que nous apporte cette approche pour piloter le progrès technologique ? Pour Mokyr, par analogie avec la théorie de l’évolution, la connaissance épistémique est le gène tandis que la connaissance empirique est le phénotype. C’est la capacité à établir des interactions entre le gène et le phénotype qui est le moteur de l’évolution des technologies :

  • Le gène est « égoïste » comme l’a décrit Richard Dawkins, c’est-à-dire qu’il a avant tout pour finalité sa propre reproduction. La connaissance épistémique évolue donc indépendamment de la connaissance empirique. C’est la qualité de la culture et des institutions qui va permettre le lien entre les deux types de connaissance, par exemple par le statut donné à la science, sa proximité avec l’industrie, son statut plus ou moins mandarinal, la démocratisation de l’accès au savoir, etc.
  • A la différence de l’évolution biologique pure, le gène de la connaissance est moins égoïste. Il y a une possibilité de feedback de la connaissance empirique vers la connaissance épistémique, qui est à l’origine de cycles vertueux à la base du progrès technologique. Ces cycles sont doublement auto-renforçants : plus la base épistémique est importante, plus elle se développe d’elle-même et plus la base empirique rétroagit sur la base épistémique, plus elle stimule son développement, c’est le rôle, par exemple, des pannes dans la stimulation du processus d’innovation.

Une organisation et au-delà une nation, grâce à la pertinence du cadre institutionnel qu’elle définira, peuvent donc faire du processus de création et d’accumulation de connaissance un avantage concurrentiel difficilement copiable qui constitue une puissante barrière à l’entrée.

Les premiers apports significatifs de la recherche à la création de valeur par le S.I

Les progrès de la recherche nous permettent donc de dépasser le questionnement initial de la recherche en système d’information : « que faire avec l’informatique » comme l’on a pu se poser les questions « que faire avec la vapeur » et « que faire avec l’électricité ». Pour envisager la transformation globale de l’organisation de la production et les nouvelles possibilités de création de valeur qu’elle offre.

Ce phénomène, là encore, n’est pas nouveau. L’électricité apparaît dans l’industrie dans les années 1880. Ce n’est qu’au milieu des années 1920 qu’elle aura une incidence significative sur l’organisation du travail et la productivité par l’innovation dans l’usage : au lieu de remplacer le moteur à vapeur entraînant l’ensemble des machines par des courroies, le moteur électrique pourra équiper chaque machine permettant une nouvelle architecture de l’atelier. L’informatique a connu une transition analogue avec le passage du macro-ordinateur avec terminaux passifs au système d’information en réseau.

Le programme de recherche du Cigref entend prendre comme point de départ l’état de l’art de la recherche que nous regrouperons sous trois rubriques :

  • Les leviers de la création de valeur ne sont essentiellement ni techniques ni technologiques ;
  • Créer de la valeur est un processus de conception qui permet de relier la base de connaissance à l’économie ;
  • L’intégration de l’utilisateur et de l’usage dans ce processus est un facteur-clé de succès.

Les leviers de la performance sont non technologiques

Dans l’enquête qu’il a réalisée sur une peu plus de 1100 firmes aux Etats-Unis, Eryk Brynjolfson, professeur au MIT, vérifie la fin du paradoxe de Solow en constatant une corrélation entre les investissements informatiques et la croissance de la productivité, mais avec des écarts considérables entre firmes : certaines connaissent des gains de productivité considérables avec moins d’investissements et vice-versa.

La différence s’explique par ce que Brynjolfson appelle les « compléments organisationnels » qui accompagnent les investissements en T.I pour faire évoluer l’organisation vers une « organisation digitale ». Les firmes qui connaissent l’amélioration la plus forte de leur productivité sont celles qui parviennent à combiner investissements en T.I et digitalisation de l’organisation. Sans travail sur l’organisation, le rendement des investissements en T.I est décroissant.

Au-delà de la digitalisation des processus d’affaires, les organisations de ce type se caractérisent par un plus grand accès à l’information (ce qui stimule l’actualisation de la base de connaissance), une focalisation de l’organisation sur les objectifs stratégiques et un fort investissement dans le capital humain. Outre une meilleure productivité, ces firmes ont une plus grande valeur sur le marché, des collaborateurs mieux payés et un plus faible turn-over, ce qui renforce le processus d’accumulation du capital humain et des connaissances.

Les clés du succès sont donc dans l’adoption de nouvelles pratiques organisationnelles qui sont la partie cachée de l’iceberg (Figure 2).

Le Cigref participe au programme MINE (Management de l’Innovation dans l’Economie Numérique) dirigé par le professeur Roger Miller de l’Ecole polytechnique de Montréal, essaye d’aller plus loin que l’identification de ces pratiques au niveau de la firme en repérant les systèmes d’innovation dans lesquelles elles s’insèrent. Ces systèmes mettent en relation la firme, ses partenaires, ses clients, ses fournisseurs et se situent au niveau meso, entre le niveau micro (la firme) et le niveau macro (l’économie). Ils ont plusieurs configurations appelées « jeux d’innovations » : pour créer de la valeur par les bonnes pratiques d’innovations, les firmes doivent comprendre dans quels jeux elles jouent.

Nous présentons dans ce numéro les premiers résultats de l’étude MINE sur le secteur des télécommunications (article de Nathalie Drouin). Le Cigref et le laboratoire de recherche en management de l’Université de Versailles Saint Quentin en Yvelines ont développé une application spécifique du programme MINE aux technologies de l’information dont nous publions les premières conclusions intermédiaires (article de Jean-Philippe Denis, Pascal Corbel et Rouba Taha).

Un processus de conception de système complexe

Quand Fred Brooks, un des trois architectes de l’IBM 360, publia pour la première fois ce qui est devenu un classique, The Mythical Man Month, il formula de manière typiquement abductive ce qui est devenu la « loi de Brooks » : ajouter de personnel à un projet en retard ne fait qu’accroître son retard. Pour Brooks, ce qui créait de la valeur c’était l’architecture des équipes qui formait le système complexe qu’est le projet. Ajouter du personnel ne pouvait que perturber cette architecture et accroître les coûts de transactions internes du projet, et donc le retarder encore plus. Ce principe s’est confirmé de manière déductive et empirique par les travaux de Baldwin et Clark sur l’architecture modulaire des systèmes complexes (2000, 2005) et la réédition 20 ans plus tard du livre de Brooks n’a pu que mettre l’accent sur la pertinence de ses analyses.

Cette approche modulaire ne s’applique pas seulement dans la conception descendante, de l’architecte à l’équipe, de Brooks. Linus Thorvald adopta une démarche strictement inverse pour développer Linux en langage open source, allant à l’encontre de tous les principes établis : livrer tôt et souvent, déléguer le plus possible. Grâce à la puissance structurante du code open source, des centaines de développeurs ont pu faire converger leurs efforts vers la création d’un nouveau système d’exploitation. Cette démarche émergente a pu réussir parce que les communautés de développeurs partageaient une base de connaissance commune qui co-évoluait avec leur pratique. Ce qui semblait être brouillon était en fait un écosystème ordonné d’où a émergé Linux.

chaineK

Dans les deux cas, le travail sur l’architecture a permis de concevoir le processus qui va de la connaissance à la conception.

Ces perspectives donnent une actualité nouvelle aux apports de Herbert Simon qui avait souligné que la conception de systèmes complexes était arborescente. On peut donc la décomposer en modules. Ces modules peuvent ensuite s’agencer de diverses façons, ce qu donne naissance à une multitude d’options techniques et commerciales. Ces modules co-évoluent entre eux : par exemple, le progrès de la puissance des processeurs selon la loi de Moore entraîne l’évolution des autres modules du système qu’est un ordinateur.

Les sciences de la conception de systèmes complexes sont encore dans l’enfance. C’est une activité scientifique qui suppose de bien comprendre la dynamique des processus stochastiques : l’innovation suppose de créer le plus grand nombre possible d’options architecturales, mais ensuite d’en éliminer le plus possible pour ne retenir que les plus stables selon un processus de sélection typiquement darwinien.

Le facteur clé de succès de cette approche modulaire de la conception est que tous ses acteurs partagent une culture, et surtout des modèles mentaux communs, tant formels qu’informels, un peu comme les artisans construisant une cathédrale avaient conscience de participer à une même œuvre. Le travail du chercheur est de transformer cette pratique artisanale et intuitive en éléments objectifs.

Cette approche modulaire ne s’applique pas qu’à la conception des produits : l’industrie est elle aussi devenue modulaire, à commencer par l’industrie informatique, dont l’exemple emblématique est Dell qui fabrique des ordinateurs totalement modularisés. La modularisation de la technologie permet de multiplier les options stratégiques, et, comme nous le montre Jean-Philippe Denis, Pascal Corbel et Rouba Taha dans leur article, l’enjeu devient aujourd’hui, face à l’évolution de la technologie, la redéfinition des modèles d’affaires.

L’importance de l’intégration de l’usage dans la conception

La dynamique émergente de la conception modulaire est guidée par une hypothèse de départ, une idée de ce qui peut être fait tant à partir des options techniques que des paris commerciaux. La pratique de la conception modulaire de produit complexes n’est pas nouvelle : elle s’est développée notamment dans l’industrie automobile depuis la fin des années 1980. Face à la multitude des options techniques, il est devenu crucial de ne pas fabriquer des objets technologiques qui satisfont au goût pour l’invention de l’ingénieur mais qui représentent des innovations en créant de la valeur pour l’utilisateur final.

Dans la dynamique de l’innovation, il n’y a, par définition, pas de demande exprimée par un client. Il y a un besoin latent, un problème non formalisé qui peut être résolu par l’innovation. La conception d’un produit complexe est donc un processus de résolution de problème qui va modifier l’hypothèse de départ, notamment en impliquant l’utilisateur final – qui peut être une personne physique ou une firme – dès l’amont du processus de conception. Ce sont les besoins de cet utilisateur, étalonnés en mesure de la création de valeur, qui vont donc arbitrer les choix d’architecture des options.

Les recherches fondatrices sur ce thème ont été entreprises par Eric Von Hippel au MIT et par Wendy McKay à l’INRIA. Von Hippel a développé le concept d’utilisateur pilote qui se définit par deux caractéristiques : 1) ils sont à la pointe d’une tendance du marché et les innovations qu’ils valideront ont vocation à être adoptées par le plus grand nombre, et 2) ils anticipent des bénéfices de l’usage de ces innovations. Ainsi le processus de création de valeur dans la conception fonctionne dans les deux sens : pour l’utilisateur par l’usage qu’il fera de l’innovation, et pour le concepteur, qui, en introduisant l’usage dans son processus de conception, en retirera un bénéfice économique.

Le processus d’innovation à l’ère de l’économie numérique n’est donc pas linéaire : il est le résultat d’une confrontation dynamique entre une nouvelle connaissance qui pousse l’innovation et un utilisateur représentant un niveau avancé de demande qui jouera un rôle de tri-sélection entre les options possibles d’architecture dans le processus de conception.

L’intégration de l’usage dans la conception est une ressource à coût marginal nul et, à l’inverse, sa non prise en compte coûte très cher en projets ratés et produits mal conçus. L’utilisateur pilote innove par lui-même en utilisant un produit technologique : il suffit bien souvent de se contenter de l’observer !

L’impact économique, mesuré par Von Hippel chez 3M, est net : les produits conçus avec un utilisateur pilote ont une performance commerciale 8 fois supérieure à un produit conçu de manière classique.

Le programme de recherche du Cigref consacre deux thèmes à ce sujet. Valentin Bricoune se penche sur la sociologie des usages et son rôle dans la création de valeur, dans son article « Les usages des systèmes d’information, une politique au quotidien». Haneene Jomaa se penche sur la valorisation économique de l’usage des technologies de l’information dans son article, à propos de la conduite des projets ERP,« ………….. »

L’intégration du monde de la recherche et de l’entreprise.

Nous avons souligné dans cette introduction la difficulté d’intégrer la démarche de recherche dans l’entreprise en raisons des deux types de décalage existant entre ces mondes : décalage temporel induit par la rigueur du processus de recherche qui doit aller au-delà des généralisations empiriques, et décalage culturel lié au langage formalisé de la communauté scientifique, différent de celui des professionnels.

Ces obstacles peuvent être surmontés par la conception d’une architecture du processus de recherche.

Une intégration opérationnelle :recherche-action et recherche-intervention

Pour satisfaire aux principes de rigueur épistémologique de la recherche définis plus haut et au besoin d’implication des entreprises dans la production et la diffusion de la connaissance, on peut adopter l’architecture suivante (Figure 3) :

  • Un cadre conceptuel de recherche est défini, de manière inductive, à partir du cahier des charges définis par le plan stratégique du Cigref, par les équipes de recherche avec lesquelles le Cigref a passé convention sous la responsabilité du conseiller scientifique du Cigref. Ce cadre a été défini en 2004 par le cahier introductif pour le cadre général.
  • Une phase de recherche-action – qui a commencé depuis fin 2004 – dans les entreprises qui se caractérise par des entretiens et des études de cas.
  • Ces études de cas induisent une amélioration des hypothèses de départ et permettent, par abduction, de développer des concepts opérationnels pour les entreprises membres. Ce cahier n° 2 est un rapport d’étape de cette troisième phase.
  • A partir de l’automne 2004 commenceront les restitutions auprès des entreprises qui auront participé aux programmes. S’ouvrira alors la phase de recherche-intervention qui a pour but de tester, en dialogue direct avec les entreprises participantes, les hypothèses nées des phases précédentes. Ces hypothèses sont destinées à être soumise au processus de falsification pour être affinées et parvenir à la formalisation de concepts opérationnels valides

 De la sorte, on se donne des moyens pour produire une connaissance opérationnelle, étalonnée sur l’état de l’art de la recherche mondiale en innovation par les T.I, qui ajoute à cet état de l’art par la production de communications et de publications scientifiques, permet au Cigref d’être un acteur effectif de la construction de la société de l’information et qui offre aux entreprises des concepts et outils opérationnels.

Bibliographie

Aberdeen Group, CIO Disruptors Benchmark Report, The 2005 CIO Agenda

Hippel, Eric von., 2005, Democratizing innovation, The MIT Press

Popper, Karl, 1956, Misère de l’historicisme, réédition Press Pocket

Acha, V  & Von Tuzelman, 2001, Technology frames : a fourth organizational capability ? Paper presented at the Nelson and Winter Conference, DRUID

Trosa, Sylvie 2003 “ L’évaluation des politiques publiques ”, Institut de l’Entreprise, Paris

Simon, Herbert, 1991, « Sciences des systèmes, sciences de l’artificiel », 1° édition anglaise 1969, traduction Dunod

Simon, Herbert, 1983 « Reason in Human Affairs » Stanford University Press

Baldwin, C.Y et K.B Clark, 2000, « Design Rules : The Power of Modularity », vol. 1, MIT Press, Cambridge, MA.

Baldwin, C.Y et K.B Clark, 2005, Designs and Design Architecture : The Missing Link between « Knowledge » and the « Economy » ?

Peaucelle, Jean-Louis, 2001, La recherche française en systèmes d’information, comparaison avec les Etats-Unis

Bourgeois, C. et Martin, A., L’externalisation : une décision sous influence, AIMS, 2005

Brooks, 1975, Réédition 1995, The Mythical Man Month

[amazon_image id=”B00570HGVE” link=”true” target=”_blank” size=”medium” ](Design Rules: The Power of Modularity) By Baldwin, Carliss Y. (Author) Hardcover on (03 , 2000)[/amazon_image][amazon_image id=”B001K2ASJK” link=”true” target=”_blank” size=”medium” ]The Mythical Man-Month – Essays on Software Engineering[/amazon_image]

 


[1] Nous renvoyons le lecteur au cahier introductif de 2004 pour la description de l’ensemble du phénomène.

[2] CIO Disruptors Benchmark Report, The 2005 CIO Agenda

[3] Voir Cahier Introductif

[4] Nous avons décrit ces cycles dans le cahier introductif.

[5] Dans le cahier introductif, nous avons ainsi montré que le décollage de l’Angleterre au XVIII° siècle a été le résultat d’une stratégie d’accumulation de connaissance, alors même qu’elle en produisait peu et de sa capacité à la transformer en performance technologique. Cette sensibilité est réactualisée aujourd’hui en France avec la résurgence du thème de l’intelligence économique.

Partager:

Comments are closed.