dimanche, novembre 29, 2009

Analyse systémique du pilotage de la performance

J'ai lu plusieurs ouvrages sur le pilotage de la performance récemment, dont le livre de Didier Vanoverberghe « Le Business Assurance pour la performance de l'entreprise » que j'avais mentionné en Aout et sur lequel je reviendrai. Cette réflexion s'insère naturellement dans le « Business Process Model » dont j'ai déjà parlé. Pouvoir définir simplement et axiomatiquement la performance serait d'une très grande aide par rapport aux objectifs de ma recherche sur l'architecture organisationnelle et le pilotage des flux de communication. Malheureusement, dès que l'on cherche à appliquer une modélisation formelle sur une situation réelle, on tombe sur de nombreuses difficultés que je pourrais qualifier de systémiques. Je commence à conjecturer que le système de pilotage hérite de la complexité systémique de l'entreprise elle-même. Autrement dit, le titre du post de ce jour ouvre un chapitre de ma réflexion sur le pilotage des processus, il ne répond surement pas à la question posée J

Tout cela a pour moi un parfum de « déjà vu ». Lorsque je me suis lancé, avec d'autres, dans l'urbanisation du système d'information de Bouygues Telecom, j'ai découvert des niveaux de complexité non-soupçonnés autour des problèmes d'architecture de données. Plus généralement, je suis tombé sur un « os » : la belle vision de l'urbanisation des SI autour des processus métiers laisse sous silence le problème de couplage entre processus. Les beaux schémas (ceux que je dessinai il y dix ans ou ceux que je lisais alors) étaient trop simples, et la réalité de l'exécution des processus dans le SI comporte plein de subtilités (une autre histoire, racontée dans mon premier livre).

Quand il s'agit de piloter la performance d'une entreprise représentée par un ensemble de processus, la même complexité apparait ! On ne peut pas réduire le pilotage de la somme des processus à la somme des pilotages, il existe de nombreux couplages. Pour s'en rendre compte, je vais prendre un exemple très simplifié autour d'une représentation « à la Porter » :

  • R&D
  • Marketing
  • Fabrication
  • Vente

Je ferai un beau dessin le jour ou j'écrirai mon 3e livre, ici je me contente de postuler l'existence de nombreux processus correspondant à des lignes de marché/produits différentes. Ces processus horizontaux s'appuient sur les 4 organisations verticales précitées. Cela forme la matrice classique présente dans tous les livres qui parlent de processus métiers (les miens compris J)

La théorie veut que les 4 divisions participent à chacun de ces processus en fournissant des ressources, le pilotage du processus étant autonome pour fixer les objectifs du processus en établissant des « contrats de valeurs » pour chacune des équipes fonctionnelles (« cases de la matrice »). La R&D innove, le marketing définit les produits et services, qui sont ensuite réalisés de la manière la plus efficiente possible puis vendus en fonction du « brief » fourni par Marketing. Pourtant, dès qu'on se place dans le contexte d'une entreprise du 21e siècle face à un marché « 2.0 » de clients informés et exigeants, de nombreuses difficultés apparaissent, que je peux résumer avec les 7 paradoxes suivants :

  1. Les processus produisent des produits et services qui s'adressent aux mêmes clients (globalement, même si la segmentation simplifie ces dépendances). L'optimisation du revenu conduit nécessairement au classique « Marketing Mix » (Yield Management).
  2. Les objectifs évoluent car le marché évolue ! Les prévisions sont forcément fausses, le pilotage ne peut donc pas s'appuyer « simplement » sur les objectifs.
  3. L'adaptation aux fluctuations du marché est un arbitrage « temps réel / sur le terrain » (cf. le « recognition & response » de Langdon Morris). Les objectifs confiés à la force de vente doivent inclure une « marge de manœuvre » d'adaptation à ces fluctuations.
  4. Les coûts unitaires du processus ne sont pas fixés, ils sont soumis à cette adaptation.
  5. Les coûts comportent des parties fixes, variables et semi-variables qui exigent un peu d'anticipation pour être optimisés. On a donc besoin de prévisions pour réduire les coûts (le modèle purement variable – malgré toutes ses qualités – n'est pas une panacée universelle)
  6. L'espace d'adaptation aux fluctuations du marché est donc contraint par des hypothèses de coûts de fabrication et de respect du « mix » (l'adaptation parfaite ne fournit pas l'optimisation du revenu produit pour l'entreprise).
  7. On ne vend plus des produits et des services mais des expériences, au sein desquelles les produits et services sont placés dans des cycles de vie gérés par les clients. Cela introduit une complexité temporelle : la valeur générée par la transaction (achat/consommation) n'est pas la seule dimension, il faut considérer le « développement durable de la valeur du client ».

Ces « paradoxes » montrent la complexité de la responsabilité du Marketing (ce que l'on sait mais qu'on a tendance à oublier dans une lecture réductrice de l'organisation par processus) et la complexité du partage de responsabilité dans le pilotage de la performance. Et comme toujours (cf. le pilotage des SI), si c'est complexe, l'arbitrage est une responsabilité de direction générale, pas l'application de règles d'organisation J

En fait, nous nous heurtons à trois difficultés systémiques :

  • Les processus sont couplés par le partage de ressources, par exemple l'ajustement des efforts des forces de ventes. Cette difficulté est la mieux connues des grandes organisations, qui vivent l'arbitrage des ressources des divisions verticales comme des freins à l'optimisation horizontale.
  • Les processus sont couplés par le fait qu'ils partagent un marché, soit de façon synchrone (compétition entre services produits par des processus distincts) soit de façon asynchrone (influence d'un processus sur un autre au travers du concept de cycle de vie – ex : plus je suis satisfait par un produit, plus je vais attendre pour le renouveler)
  • Les processus s'inscrivent dans un déroulement temporel, face à un marché incertain. La difficulté de la prévision (connaitre un marché) se combine avec celle de l'anticipation.

Ces difficultés se traduisent concrètement sur la multiplication des contraintes qui pèsent sur la « gouvernance du pilotage de la performance ». La responsabilité doit être partagée / segmentée / fondée sur un cadre / préserver un espace de liberté d'ajustement « sur le terrain ». Toutes ces contraintes peuvent être résolues avec le concept de collaboration par partage de modèle. J'y reviendrai un autre jour, c'est un concept riche mais sophistiqué. Simplement, la collaboration par partage de modèle permet de :

  • Poser un cadre (le modèle)
  • Donner un espace d'adaptation (le modèle est creux, il reste à le remplir)
  • Donner du sens, c'est-à-dire permettre à celui qui exerce l'adaptation d'apprécier sa contribution à la performance

Concrètement, les acteurs du processus sont condamnés à collaborer en échangeant des informations, ce qui s'inscrit parfaitement dans le contexte de l'entreprise 2.0. Il ne s'agit pas que tout le monde explique tout aux autres ! Le modèle est précisément un outil d'encapsulation.

Je reviendrai sur ce sujet dans des posts futurs, il est assurément complexe et mérite d'autres développements. Mais on voit tout de suite que ce concept de partage de modèle ne remplit pas les objectifs de simplicité et lisibilité d'une « belle théorie du pilotage de la performance ». Ce que je peux résumer en disant que le management de la performance des processus s'ajoute mais ne se substitue pas à la problématique du management de la performance de l'entreprise.


dimanche, novembre 01, 2009

Systèmes (humains) Complexes: quelques pistes de réflexion

Je reprends le clavier avec un post promis depuis longtemps sur le livre de Philip Ball « Critical Mass ». C’est un des livres les plus denses parmi ceux dont j’ai parlé ici. Je le recommande chaleureusement mais ce n’est pas une lecture de plage… Ceux qui trouvent que Taleb est difficile feront bien de s’abstenir. Philip Ball est un physicien reconverti dans l’histoire des sciences et dans l’écriture. Plusieurs de ses livres ont été primés, dont Critical Mass qui a reçu le prix Aventis.

« Critical Mass » est un essai, qui couvre un grand nombre de thèmes en prenant l’histoire des idées comme une sorte de fil rouge. Son introduction, centrée sur Hobbes et sur le Leviathan, n’est pas sans rappeler « The Social Atom » de Buchanan dont j’ai déjà parlé. Philip Ball liste les nombreux scientifiques et philosophes qui, à la suite de Hobbes, ont été à la recherche des « laws of society ».

Selon mon habitude je vais lister les points qui sont intéressants du point de vue de ce blog. Ce que je ne ferai pas, faute de temps, de culture et de talent, est de replacer tous ces points dans leur contexte historique.

  • L’histoire de la « bell-shaped curve » (ce que nous appelons la Gaussienne), de Moivre à Gauss, en passant par de nombreux contributeurs est passionnante, en particulier pour ceux qui s’intéressent aux méthodes de qualité totale (de type six-sigma). De fait, les premières gaussiennes produite par des astronomes comme Pierre-Simon Laplace étaient précisément des courbes d’erreurs. Les liens entre la sociologie et la physique (en particulier l’électromagnétisme), auquel on ne pense pas forcément, ont produit des allers-retours qui ont engendré les statistiques.
  • La théorie de la birfurcation de Prigogine est brièvement évoquée (on la retrouve dans la plupart des livres sur les systèmes complexes). En toute franchise, je n’y ai pas compris grand-chose avant de lire Chaos de James Gleick. La bifurcation est un état critique qui conduit au doublement du nombre d’états stables. L’intérêt de ce concept est qu’il s’agit de la brique élémentaire de la complexité du chaos (une infinité d’états stable qui forment dans l’espace de phase des figures fascinantes et incroyablement complexes). Autrement dit, la richesse de l’empilement de la multitude d’états qui constitue le chaos est le plus souvent engendré par ces points de bifurcation. Le point le plus intéressant de ce chapitre est le fait de voir l’existence d’une structure fractale (par exemple comme un flocon de neige) comme la signature d’un processus de croissance (p. 110).
  • La description des boids de Craig Reynolds est une bonne introduction à l’émergence. Un boid est une contraction de « droid » et « bird », c’est un avatar d’oiseau logiciel. La contribution de Craig Reynolds est d’avoir reproduit la beauté et la complexité d’un vol de milliers d’oiseaux à partir de règles fort simples et locales (ne s’appliquant qu’à un oiseau à la fois). Cette approche s’applique également aux foules (mobs), selon les travaux de Helbing & Molnar. Philip Ball continue avec une synthèse des modèles de trafic routiers (Lighthill, Nagel-Schreckenberg, …).
  • Le chapitre le plus passionnant s’intitule « Rythms of the Marketplace ». On y trouve des idées également exposées chez Buchanan ou Taleb, mais plus détaillées et plus argumentées. Le point de départ est la constatation, due à Benoit Mandelbrot, que les graphes des évolutions des « stocks » (actions) ne peuvent pas s’expliquer comme des processus aléatoires (qui engendrent des signatures Gaussiennes) mais nécessitent des processus plus complexes avec une notion d’apprentissage. Après une première intuition d’utiliser des « marches aléatoire de Lévy », la découverte que les variations des stocks sont « scale-free » nous lancent, avec l’auteur, sur la recherche de l’explication de cette structure remarquable. Tout au long du livre, on trouve des exemples passionnants de ce type de distribution, comme par exemples la distribution de la taille des « avalanches » sur un tas de sable. Un autre exemple intéressant est celui du vote : dans un système d’élection avec un très grand nombre de candidats (ex : Brésil, 1998), on retrouve une « power law » (exposant -1) avec sa « long tail ». Autrement dit, le nombre de candidats qui reçoivent une fraction p du vote est inversement proportionnel à p. Ceci démontre que le vote n’est pas fait de millions de votes indépendants mais qu’il y a un processus d’apprentissage, where « the rich get richer ».
  • La première étape de ce parcours passe par la notion de SOC (self-organized criticality), une propriété « miraculeuse » qu’on certains systèmes de se réorganiser en permanence pour retomber sur un état critique. « Self-organized criticality is one of the few genuinely new discoveries to have been made in statistical physics over the past two decades ». Le lien avec le point précédent est que précisément SOC engendre des distributions “scale-free”. Per Bak est un des premiers à avoir conjecturé que l’économie est dans un état de self-organized criticality, un état qu’il est impossible de stabiliser et dans lequel des fluctuations mineures peuvent engendrer des « avalanches » de toutes tailles.
  • Le chapitre 11, « The growth of many hands » porte sur un sujet plus proche de ce blog, celui de ma modélisation des entreprises et de ce qui fait leur succès. Il porte sur deux questions classiques : pourquoi avons-nous besoin d’entreprises (quel avantage apportent-elles) et qu’est-ce qui explique la distribution des tailles d’entreprises (qui est remarquablement stable et bien étudiée). Le point de départ est le « modèle » de Robert Gibrat, qui s’appuie sur l’étude statistique des distributions d’entreprise en fonction de leur croissance (la combinaison de deux « powerlaws »). Pour expliquer une telle distribution, Philip Ball nous présente le modèle de Robert Axtel (que j’ai évoqué dans la revue de « Social Atom »). Ce modèle, librement inspiré de la théorie des transactions de Coase, suppose que les entreprises croissent en fonction de leur capacité à attirer des acteurs, qu’ils soient des « talents » ou des « free-riders » (profiteurs à faible contributionJ). Le modèle d’Axtell produit des distributions nombre/taux de croissance qui sont proches de ce qu’observe Gibrat. Bien entendu, comme le souligne Ball, « No one is claiming that this is a perfect model of firm growth. It neglects all manner of important things … ». Néanmoins, sa capacité à prévoir des distributions réelles fait penser qu’il s’appuie sur une propriété « universelle » des entreprises. Le modèle permet de produire des courbes représentant l’histoire type d’une entreprise, avec la phase de croissance exponentielle, suivi par un déclin plus rapide. On arrive alors à l’explication paradoxale du déclin: le succès d’une entreprise attire trop de « free-riders » qui finissent par l’étouffer. Toute ressemblance avec des situations existantes serait fortuite J En revanche, la forme générale de la « courbe de vie » des entreprises est remarquablement proche de ce que l’on observe statistiquement (dans la forme et la durée – cf. p 267).
  • Le chapitre 16, “Weaving the Web”, s’intéresse à la structure du Web et ce qui fait sa robustesse. On y trouve (p. 382) la distribution de probabilité des liens sur les documents du Web, qui suit également une « power law » remarquable. L’invariance d’échelle du Web est également très bien commentée dans Linked de Albert-Laszlo Barabasi. J’ai déjà parlé de ce livre mais je ne l’ai pas encore commenté. Pourtant l’analyse des réseaux d’interactions de la biologie moléculaire (qui fait aussi apparaitre des réseaux « scale-free ») est passionnante (brièvement évoquée dans ce chapitre 16). Je cite Ball « The scale-free structure of metabolic networks makes sound evolutionary sense, because it makes metabolism relatively insensitive to small incidence of random failure”. Il y a donc bien une propriété intéressante à capturer dans la conception de réseaux informatiques, ou de systèmes de réunion, pour reprendre un de mes thèmes chers.
  • Les deux derniers chapitres traitent de la coopération. On y retrouve les expériences de Robert Axelrod sur TFT (Tit-for-Tat), la meilleure stratégie pour jouer au dilemme du prisonnier. On y découvre que l’introduction d’une forme de rétribution favorise grandement la coopération dans le dilemme du prisonnier (travaux de Fehr et Gächter). On découvre également que lorsque le jeu devient perturbé par un bruit aléatoire, la meilleure stratégie devient GTFT (Generous Tit-for-Tat). Autrement dit la générosité est la stratégie la plus robuste aux aléas. Il n’y a qu’un pas, pour les aficionados du Darwinisme comme outil d’explication de la psychologie collective, pour en conclure que l’altruisme est une évolution Darwinienne de l’espèce, mieux adaptée à la collaboration, et donc plus efficace J Je vous laisse découvrir les expériences de Nowak et Sigmund pour vous faire votre propre opinion. Je cite un abstract d’une des présentations: « Martin Nowak will argue that indirect reciprocity is the key mechanism for the evolution of social intelligence and human language”.

Cette courte liste est très incomplète. Le livre fourmille d’analogie entre des systèmes humains et des systèmes physiques qui présentent de propriétés communes, sur des thèmes tels que la politique, les règles de vote, la criminalité, … On retrouve aussi évoqué des thèmes dont j’ai déjà parlé : l’expérience du bar d’El Farol, les petits mondes de Watts, les recherches d’Axelrod. Sans faire de mauvais jeux de mots, il faut une « critical mass » de lectures pour apprécier la profondeur et la pertinence de ce que Philip Ball écrit. Je recommande de lire en parallèle Bernstein, Taleb, Buchanan et Gleick (son best-seller, Chaos, est une bonne introduction à la théorie du chaos, des fractals et de la contribution de Benoit Mandelbrot – ce qui permet de mieux comprendre Taleb).