lundi, juin 30, 2014

Un réseau d’équipes a-t-il besoins de managers ?



Le court billet de ce jour est un complément au message précédent  dans lequel j’avais conclu que la meilleure organisation scalable face à la complexité est un réseau d’équipes. Pour être un peu plus précis, je pourrais dire que nous avions terminé la réflexion précédente avec les conclusions suivantes :
  • L’unité de travail est une équipe autonome de petite taille
  • L’organisation s’appuie sur l’auto-organisation des équipes en réseau, autour d’une finalité commune
  • Le réseau se construit avec une structure « multi-échelle », dans lesquelles des équipes jouent un rôle de connecteur à différents niveaux d’abstraction dans une vision système/sous-système.
Aujourd’hui je vais me poser la question du rôle, ou du besoin, de managers dans une telle organisation distribuée d’équipes. Cette réflexion s’inscrit dans le thème à la mode de la « fin du management » que j’ai déjà abordé dans mon billet « Sociocratie : la fin du management » et plus généralement sur le « futur du management ». Sans répondre à la question posée dans le titre, je vais éclairer le débat (ma position sur le besoin de managers, mais d’un type différent, est une constante de ce blog) avec trois contributions.

1.      Le besoin d’émissaires dans un réseau d’équipes


Le point de départ de ma réflexion ici est la constatation, énoncée maintes fois, que la complexité empêche de décomposer les prises de décisions. Ceci peut se formuler de différentes façons :
  • Dans une décision lié à un sujet complexe (au sens précédent, de la richesse des interactions entre les parties prenantes), l’ensemble du contexte de chaque partie prenante doit être représenté, et une abstraction (e.g., une page Powerpoint dans notre culture d’entreprise du 20e siècle) ne suffit pas.
  • Le besoin de décisions conduit à un nombre croissant de réunions, avec un nombre croissant de participant si l’on ne prend garde à la structure du réseau.
  • La quantité d’information nécessaire pour une décision augmente, cf. Mintzberg : It is too common to witness people being blamed for failures that can be traced to their inadequate access to the information necessary to perform their delegated task »

Cette constatation conduit au besoin, pour les équipes, de pouvoir se faire représenter par des émissaires, que j’aurai tendance à qualifier de « proxys » dans mon jargon d’informaticien. Le rôle de l’émissaire est d’en dire peu et d’en savoir beaucoup. C’est le nœud gordien de la complexité, il faut trancher la complexité entre le besoin paradoxal d’ :

  • Un échange de peu d’information pour des décisions rapides (éviter l’accumulation de contexte, qui crée la confusion)
  • Un échange qui tienne compte de la richesse des contextes.
L’échange qui réalise ce compromis est un échange dynamique (miroir de la complexité) qui ne peut pas être pré-orchestré. C’est le rôle de l’émissaire : participer à cette émergence rapide, en ayant a sa disposition l’ensemble du contexte (il faut des émissaires compétents) mais en restant synthétique dans son expression (une qualité fort appréciée par nos anciens et qui semble se perdre). Le fait que le processus de prise de décision soit le miroir de la complexité de la situation explique pourquoi la méthode du siècle dernier, dans laquelle le « grand chef » demande à chaque partie prenante une synthèse sur un A4, ne fonctionne plus.

Il y a une dizaine d’années, j’avais remarqué que la fonction de DSI « crée le talent ». Le rôle de DSI est associé à une position extraordinaire au carrefour de multiples flux d’information de l’entreprise. Celui qui se trouve à ce carrefour construit rapidement un « contexte » qui est à la fois un avantage (dans le sens de la formation de ses compétences) et un handicap (dans le sens expliqué par Mintzberg dans « Managing » : ce contexte ne se délègue pas, et donc la délégation du rôle est souvent non efficace). Les rôles de proxys d’une équipe ou d’une organisation sont des rôles émergents : dès qu’on les décide, ils sont construit et structurés par les flux d’information qui se mettent à les irriguer.

Ce rôle d’émissaire n’est pas nécessairement un rôle de « manager », cela peut être un rôle de représentation au sens du « secrétaire général ». Mais l’expérience montre que beaucoup de décisions supposent une capacité à accepter des compromis qui est de facto une position de pouvoir sur l’équipe ou l’organisation représentée par l’émissaire. Ce rôle pourrait également être pris comme un rôle « tournant » (un émissaire désigné par l’équipe) mais on se heurte à l’observation précédente : la coordination est plus efficace si l’on profite de l’émergence des compétences liée à la pérennité de la position au sein des « carrefours d’information ».

2.       Le besoin d’incarnation des rôles


Dans notre micro-introduction sur l’organisation « réseau dynamique d’équipe scalable face à la complexité », nous avons introduit implicitement plusieurs rôles :
  •  Définir une vision/ stratégie : il faut construire cette finalité qui est distribuée / partagée et comprise par tous.
  • Synchroniser et orchestrer : dès lors que le réseau comporte de nombreuses équipes, cette fonction apparait, puisque l’auto-organisation de la petite équipe qui s’appuie sur les liens forts n’est plus scalable. Il est possible d’appliquer certaines bonnes pratiques, telles que le management visuel, à différentes échelles d’abstraction, mais les modes de synchronisation sont différents.
  • Emissaire : représenter son équipe au sein d’une autre équipe (ce que nous venons de discuter) avec une vraie capacité à s’engager au nom de l’équipe dans la recherche de solution à des problèmes complexes.
La thèse de cette deuxième section est que les organisations fonctionnent mieux si ces rôles sont incarnés, c'est-à-dire confié à une personne, qui est identifiée au rôle. Il y a trois autres solutions :
  1. Le rôle est représenté par un document, un artefact (e.g., un wiki), un totem.
  2. Le rôle est représenté par une position (élue/désignée/…) qui change fréquemment.
  3.  Le rôle est représenté par un comité.
La section précédente a montré, en suivant les pas de Mintzberg, qu’il y a un avantage à l’incarnation du point de vue de la gestion des flux d’informations et des contextes (par rapport aux solutions 1 et 2). Ce que la psychologie et l’étude des comportements nous enseigne, c’est que nous sommes câblés pour suivre une personne, en fonction de l’empathie, des émotions, de la capacité à s’identifier.  C’est un sujet de débat avec mes lecteurs férus de sociocratie, mais mes trente ans dans l’entreprise coïncident avec les enseignements de l’éthologie. Il y a une force primaire et instinctive dans l’incarnation des rôles, et on la retrouve dans toutes les « success stories » des dernières décennies. Pour être caricatural, je dirai que l’entreprise du 21e siècle n’a pas besoin que de collaboration et de consensus, elle a « besoin de tripes ».

Je ne fais ici qu’effleurer le sujet de la réalité psychologique de la fonction de management. Je renvoie le lecteur à l’ouvrage de référence de Bolman et Deal, « Reframing Organizations », dans lequel l’organisation est analysée sur quatre plans : structure, politique, humain et symbolique. La spécificité de ce blog est d’analyser la dimension structurelle, parce que mes outils et mon expérience me donne une petite légitimité, mais les trois autres dimensions sont absolument fondamentales pour comprendre les organisations. Ces trois autres dimensions pointent de façon commune au besoin d’incarnation des rôles dans une organisation, en particulier les rôles de leadership (vision) et les rôles d’orchestration (alignement et cadencement).

Je conclus de ces observations qu’il existe bien des rôles de « managers » dans cette « nouvelle forme d’organisation en réseau ». Ceci ne signifie pas que je viens de ré-inventer le rôle du manager hiérarchique ! Je vous renvoie au billet sur l’Entreprise 3.0 dans lequel je détaille ce que pourrait être le « nouveau rôle de manager » (ou au dernier chapitre de mon livre). Nous avons vu dans le message précédent que  cette  « nouvelle organisation » est construite sur l’autonomie des équipes, l’écoute du client, la factualisation des décisions et sur le développement permanent des compétences. Ceci dessine un profil de manager :  jardinier (de l’émergence : au service des conditions de succès de l’équipe), à l’écoute, coach (du kaizen) et mentor (de l’apprentissage).

3.      Réseaux plats et scalables


Je vais terminer par un des sujets favoris de ce blog : l’aplatissement des structures de décision. Je commence par le principe suivant : la bonne longueur d’un chaine de décision est deux, trois tout au plus et sous réserve. La chaîne dont je parle est celle qui va de celui qui connait le problème à résoudre à celui qui va prendre la décision, ou, de celui qui exprime le besoin à celui qui va construire la solution. Dans le premier cas, le « pouvoir » est en fin de chaine, dans le second cas, il est au début de la chaîne, mais cela ne change rien à ce qui va suivre. Tout ce que je viens de raconter sur la complexité et la difficulté à transporter les contextes signifie que chaque intermédiaire est un intermédiaire de trop pour prendre la bonne décision. Le cas de la chaîne de longueur 3 est particulier parce qu’il vérifie la condition suivante : « dans toute conversation, il y a au moins une personne compétente sur une partie du problème ». De façon moins cynique, dans une chaine à trois, le maillon intermédiaire est exposé de façon directe aux deux contextes (celui du besoin et celui de la réalisation), ce qui évite d’inventer des besoins et des réalisations incohérentes. Le bon intermédiaire (pour faire le parallèle avec le bon émissaire) est celui qui pratique le « selfLean » et qui sait s’effacer.




En fait ce que je viens de dire s’exprime de façon plus simple : il faut être quatre pour bloquer solidement un processus de décision et prendre des décisions absurdes.  Dès que la chaine contient quatre personnes (ou plus) dans le processus de décision, la condition précédente n’est plus vérifiée : il existe des conversations (délicieuses, pour l’observateur) entre des personnes qui ne comprennent réellement ni le besoin ni la solution.  L’existence de telles situations est un symptôme de la complexité (dans un monde compliqué mais linéaire, la cascade hiérarchique du contrôle-commande fonctionne). L’exemple classique d’une chaine de longueur quatre est le pattern « client / MOA / MOE / développement » (maitrise d’ouvrage, maitrise d’œuvre – dans certaines entreprises, « maitrise d’ouvrage » désigne le client et on parle de A(ssistance) MOA ou MOAD(éléguée)). C’est pour cela que les méthodes agiles ont été inventées, pour mettre le développeur en face du client, dès que la situation est complexe (dès qu’il existe un humain utilisateur, par exemple). Mais la collection de blocages de longueur 4 que j’ai pu observer en dix ans dépasse très largement le cadre informatique.

Il existe une contradiction entre les deux affirmations que nous avons faites au sujet de l’organisation scalable. Même si le diamètre (le nom technique donné à la longueur maximale d’une chaine dans un réseau) augmente faiblement dans une organisation « scale-free », elle dépasse 3. Il est donc nécessaire de combiner à l’organisation en réseaux la modularité de la délégation, c’est-à-dire organiser le réseau d’équipe de façon modulaire, précisément pour que la quasi-totalité des chaines de décision soient de longueur inférieure à trois. Ceci n’est pas un sujet d’architecture d’organisation, mais un sujet d’architecture métier (entrerprise architecture), qui dépasse le cadre de ce billet ( et en plus, c’est bien compliqué et je n’ai pas la solution :)). Plus concrètement, cela signifie une forte culture de la délégation ! On retrouve d’une autre façon ce que j’ai « démontré » dans un billet précédent : dans un monde complexe, il faut plus de délégation. Non seulement les équipes sont autonomes et capables de prendre la majorité des décisions, mais pour les décisions qui exigent plusieurs parties prenantes, il y a suffisamment de délégation pour que les équipes et émissaires nécessaires soient une distance de un ou deux.

Je conclurai par un clin d’œil à mes camarades architectes : la bonne architecture d’entreprise modulaire est celle qui supporte la distribution des décisions et la délégation des responsabilités. Ce qui conduit à faire des produits et services « as simple as possible but no simpler », ce qu’Apple et Google ont bien compris.

dimanche, mai 25, 2014

Organisations scalables face à la complexité


Le billet de ce jour contient différentes réflexions autour des interactions entre la complexité et la taille des organisations, avec un axe particulier autour  du concept de « change tolerant organization ». Autrement dit, quelles sont les structures d’organisations capables de concilier les capacités à grandir et à s’adapter continuellement à l’organisation ?  Il y a bien une tension entre ces deux objectifs : les structures agiles et auto-organisées semblent avoir du mal à passer à l’échelle (et en particulier lorsque leur taille dépasse le nombre de Dunbar), tandis que la structure hiérarchique qui est le modèle historique de l’organisation scalable a montré ses limites en termes de capacité d’adaptation.

1.  Quelle organisation pour l'entreprise on-demand ?

Il y plus de 10 ans, IBM a introduit son modèle de l’entreprise « on demand ». J’étais DSI de Bouygues Telecom à cette époque, et cette vision d’une entreprise parfaitement synchronisée avec son marché et son environnement au travers de ses processus et d’une boucle homéostatique de mesures et réaction m’a en premier lieu semblé très séduisante. Le modèle de l’entreprise « on demand » s’appuie sur le BPM (Business Process Management), poussé jusqu’au bout de sa logique. Tous les processus métiers de l’entreprise sont intégrés dans le système d’information, avec une double capacité à mesurer le déroulement et les performances du processus, et à agir sur le processus pour modifier ce qu’il produit. A l’époque où je commençais à réfléchir à l’implémentation du BPM, j’ai considéré le modèle « on demand » comme une cible ultime, un « point de fuite ».

Le schéma suivant est tiré de mon premier livre, « Urbanisation, SOA et BPM ». Ce schéma est construit autour de la « chaîne de valeur du BPM », c'est-à-dire les étapes qu’il faut maîtriser pour faire fonctionner ce modèle. Il est pensé en termes de modèle de maturité, c’est pour cela que l’on trouve un petit thermomètre associé à chaque étape qui indique les niveaux de maturité successifs pour la maîtriser. L’exigence « on demand » se traduit par la nécessité d’obtenir la maturité complète sur l’ensemble des maillons de la chaîne. C’est un défi transverse, depuis la stratégie de l’entreprise jusqu’à son exécution en passant par son système d’information. Je vous renvoie au chapitre 11 pour plus d’explications.

 Très rapidement après avoir produit ce schéma, j’ai commencé à l’utiliser de façon négative, pour montrer à quel point il était difficile d’atteindre cette cible. C’est par exemple ce que j’ai fait il y a quelques années dans mon cours à Polytechnique. Ce modèle de maturité est devenu l’illustration que l’approche d’organisation « top-down », autour des processus métiers et des capacités de l’entreprise, qui est éminemment scalable, était trop complexe pour devenir auto-adaptative.

J’ai « pivoté » à la fin 2006, et j’ai commencé à m’intéresser à la question sous l’angle « bottom-up », c’est-à-dire en concevant l’homéostasie (l’adaptation continue au changement) comme une propriété émergente, ce qui m’a conduit à m’intéresser au Lean Management et à Toyota.

2. L’organisation des « Géants du Web »


Le paradoxe 10 ans plus tard est que certaines entreprise du monde numérique ont précisément réalisé l’ambition de l’entreprise « on demand ». Je vous renvoie par exemple à la lecture de deux livres que j’ai cités récemment : « The Age of the Platform » et « Les Géants du Web ». En s’appuyant sur des mesures continues et une boucle d’exécution très courtes, ces entreprises digitales (qu’ils s’agissent des géants de GAFA ou des startups du numérique) sont capables d’allouer leurs ressources de façon continue et d’adapter leurs processus et services pour mieux rencontrer les besoins de leur clients.

Lorsqu’on montre ceci point par point à un « DSI classique » tel que je l’ai été, la réaction naturelle est de dire « oui, mais ce sont des processus beaucoup plus simples » … C’est exactement la clé du raisonnement (« that’s the point ») ! La réactivité « on demand » exige la simplicité. Bien sûr cette idée est partout :

Le schéma qui décrit l’organisation « on demand » devient beaucoup plus simple :
  1. Un « service factory » qui est une usine logicielle agile,
  2. Un « service » entre les mains du client, qui est instrumenté de telle sorte à capturer de façon continue les usages et la satisfaction des clients
  3. Une boucle de rétroaction qui couple les deux

Les ingrédients pour faire fonctionner cette organisation sont également connus :
  • Une vraie culture de la mesure, pour implémenter le cycle PDCA cher à Deming. Je vous renvoie une fois de plus au livre d’Octo, mais également à mon dernier livre. Il ne suffit pas de mesurer pour  être efficace, c’est toute une culture du « test and learn » qui est nécessaire.
  •  Un fonctionnement de l’équipe de développement selon un principe de « lean software factory » qui combine les principes des méthodes agiles et la mise en production continue de DevOps.
  • La simplicité (qui est ici une notion toute relative) de ce que l’on fabrique, afin d’accélérer le cycle de fabrication et modification incrémentale, et également afin d’augmenter la pertinence du cycle PDCA (la simplicité est ce qui rend possible le « pilotage par les faits et non par les opinions »). On retrouve ici les points clés du « Lean Startup »


3. Complexité et effet d’échelle

Pour comprendre les effets intéressants de la complexité sur l’organisation, il est utile de repartir du cas simple (voir théorique) de l’organisation pyramidale/hiérarchique. Dans un monde compliqué, l’organisation hiérarchique traduit la structure de l’activité : ce qui est compliqué se décompose en un grand nombre de choses plus simples. Le principe de l’organisation  hiérarchique est la décomposition (d’une tâche en sous-tâche) et la délégation. Chaque sous-organisation est (raisonnablement) indépendante des autres.

La complexité se produit lorsque les relations apparaissent entre les sous-tâches (et donc les sous-organisations). On doit donc passer de la délégation au consensus. Dans un monde compliqué le rôle du chef hiérarchique est simple : il s’agit de déléguer à la bonne personne. Dans un monde complexe, ce rôle est difficile, puisqu’il faut « aligner » les sous-organisations, c'est-à-dire produire un « consensus » (que ce soit de façon participative ou autoritaire). C’est bien pour cela que la multiplication des réunions est un symptôme de la complexité : il faut organiser cette maïeutique du consensus.

De façon schématique, la production d’un consensus est un processus qui part de N points de vue et en fabrique un nouveau, en fonction d’objectifs communs et des objectifs individuels.  On s’attend à retrouver dans les objectifs communs du groupe ceux de l’entreprise et en particulier le but commun à l’équipe (un des principes fondamentaux de la nature est que la coopération résulte d’un objectif commun). Les objectifs individuels, qui sont souvent liés à la culture de l’entreprise (volonté de pouvoir, soif de reconnaissance …), jouent également un rôle clé dans la dynamique du consensus. Ce consensus peut être évalué selon deux axes : le périmètre et la solidité. Le périmètre s’exprime comme un ratio entre le nombre de questions/problèmes traités dans l’énoncé du consensus sur celui de l’ensemble des opinions fournies au départ. Un score (utopique) de 100% est une synthèse parfaite qui couvrent l’ensemble des points abordés, tandis qu’un score de 10% correspond à la situation (fréquente) où le résultat ne contient plus qu’une petite partie des sujets qui posent question. La solidité du consensus traduit l’appropriation : la mesure la plus simple étant une mesure de la probabilité que chaque participant se désolidarise plus tard de l’énoncé de la décision prise par consensus.

Cette petite digression sur ce qu’est la création d’un consensus était nécessaire pour formuler les trois observations suivantes que je vais pompeusement élever au titre de principes dans la suite du raisonnement :
  1. Plus l’objet du débat est complexe, plus il est facile de briller par la dissension et la critique, et plus il est difficile d’apporter une contribution positive (la complexité augmente le champ de la contradiction, et elle rend plus fragile toute proposition constructive).
  2. Plus l’objet du consensus est complexe, plus le nombre d’interaction entre les parties prenantes du consensus augmente (le même principe que la Loi de Metcalfe, mais vue de façon négative).
  3. Lorsque le consensus porte sur un sujet complexe, le contrôle des conséquences de la décision devient de plus en plus illusoire, et la confiance entre les parties prenantes devient essentielle.

La troisième observation rejoint la thèse de mon livre favori de Kevin Kelly « Out of Control » : la complexité entraîne la perte de contrôle et crée de la sorte un besoin de confiance. Ces trois règles peuvent sembler n’être que de simples observations de bon sens (c’est vrai :)). Mais elles permettent de déduire deux choses.

La première chose est une règle sur la taille des équipes. La conséquence de ces trois principes est que plus la complexité augmente, plus la taille de l’équipe N devient un handicap pour le consensus. Plus précisément, on observe lorsque N augmente une dégradation à la fois du périmètre et de la solidité du consensus. C’est exactement ce que dit le deuxième principe.  Pour ce qui est du troisième principe, il faut le combiner avec une observation sociologique (cf. Les Décisions Absurdes) qui veut que la confiance comme le sentiment de responsabilisation baisse avec le nombre des participants. Le premier principe contribue également à cette loi, que je vais appeler « Loi des interactions », en vertu de la constatation qui veut que le temps de parole disponible en réunion pour chaque participant baisse en fonction de N.

Pour représenter cela, je vous propose un diagramme de phase, selon deux dimensions, la complexité du sujet et le nombre de participants. La « Loi des interactions » détermine que le nombre efficace de participants baisse en fonction de la complexité, ce qui revient à éliminer une partie de l’espace (le triangle rouge sur le dessin). Il existe une autre loi bien connue, la « Loi de la Variété » qui veut au contraire qu’on ait besoin d’un nombre croissant de points de vue pour résoudre un problème complexe. Ceci conduit à la courbe bleue et au triangle correspondant. La représentation linéaire est approximative, la réalité est probablement une courbe plus complexe. L’intérêt du diagramme de phase est de pouvoir représenter visuellement « la complexification progressive de notre environnement ». Je l’ai représenté sur le schéma avec deux traits pointillés correspondant à 1980 et 2010, pour illustrer que les formes de toute petite équipe ou de grandes équipes ont pu fonctionner dans le passé, mais ne sont plus adaptées aux défis d’aujourd’hui.





La deuxième conséquence porte sur la culture d’entreprise nécessaire pour favoriser l’émergence des bonnes décisions par consensus. On pourrait dire en paraphrasant Einstein que le consensus doit faire intervenir le moins de personnes possible, mais pas moins. Autrement dit, il ne faut pas ignorer les effets de la loi sur la variété des points de vue, et donc ne pas réduire N au-delà de ce qui est nécessaire. Ce qui conduit donc à énoncer que, dans un environnement complexe, la culture de l’entreprise doit promouvoir la reconnaissance individuelle de l’esprit positif et de l’attitude collaborative dans une réunion de recherche de consensus. Ceci vient de la combinaison des trois principes (en particulier le premier) et du processus de consensus tel que je l'ai sommairement décrit.

4.  Quelle est la structure scalable du réseau d’équipes ?


Le diagramme précédent montre également (ce qui est évident), que l’équipe n’est pas une organisation scalable, et qu’il faut trouver autre chose pour des domaines de plus grande complexité. De fait, il est aujourd’hui communément admis que la bonne structure est un réseau flexible d’équipes. Toute la question est de déterminer quelle est la structure de ce réseau ?  Les objectifs de cette structure sont connus et clairs :
  • L’organisation doit être scalable : la structure du réseau fonctionne à toutes les échelles, de la PME au Groupe, en permettant la croissance, c’est-à-dire le passage d’une échelle à une autre.
  •  L’organisation est adaptative, au sens de Peter Senge, elle est donc apprenante. Ceci conduit logiquement au principe d’auto-organisation.
  • L’organisation est un support de l’écoute continue de son environnement par l’entreprise. La structure est donc adaptée aux flux d’informations qui sont nécessaires à son fonctionnement (un des sujets favoris de ce blog)
  • L’organisation supporte un fonctionnement « on demand », c’est-à-dire une réaffectation dynamique de ses ressources en fonctions des opportunités de son environnement. J’aurai également pu écrire, ce qui n’est pas très différent, « un fonctionnement lean » c'est-à-dire en flux tirés à partir des besoins du client.
Disons tout de suite que je n’ai pas la solution du problème, mais qu’il me semble clair que cela passe par une structuration dynamique et fractale du réseau d’équipe. Commençons par le plus évident,  un réseau « à plat » sans structure (avec des échelles différentes) n’est pas une solution. Le réseau plat, qu’il s’agisse d’une grille, d’un maillage bidimensionnel (et planaire, au sens des graphes) d’une surface, d’un graphe aléatoire … n’a pas les bonnes propriétés. Les temps de propagations de l’information augmentent de façon linéaire avec la taille de l’entreprise, ce qui n’est pas acceptable.  Je cite très souvent l’approche BetaCodex car je la trouve extrêmement intéressante (je partage 90% du diagnostic sur la complexité) mais je suis en désaccord sur la structure fondée sur la métaphore de la cellule avec sa membrane.

Ce que la science des systèmes complexes nous apprend est qu’il est nécessaire d’introduire des hiérarchies pour gérer la complexité. Sur ce point, je suis tout à fait en accord avec Bob Sutton, un des auteurs de « Scaling Up Excellence ». La structuration hiérarchique apparaît presque automatiquement, y compris dans des organisations sous formes de cercles concentriques, ou encore sous forme de cercles de différentes tailles avec différentes intersections.  Il ne faut juste pas confondre organisation hiérarchique et pyramidale. Dans le premier cas, il s’agit juste d’utiliser les principes d’abstraction et d’encapsulation pour faire émerger différents niveaux de compréhension et d’abstraction. Dans le second cas, on rajoute des informations sur le contrôle, qui est implicitement du haut (abstrait) vers le bas (concret). Une organisation moderne, telle que je l’esquisse sous le terme d’entreprise 3.0, a distribué le contrôle et n’est clairement plus pyramidale. Ceci ne s’oppose pas à une organisation récursive, donc hiérarchique.

L’approche « Holacracy »  considère que c’est le but (à savoir la chose à faire) qui tire l’organisation de l’entreprise, ce qui est une application du principe de l’holomorphisme des systèmes complexes. On peut donc alors penser que si l’objet de l’organisation holacratique est complexe, il a besoin d’être décrit de façon structurée et hiérarchique, ce qui conduit naturellement à une organisation hiérarchique. Cela peut surprendre puisque « holacracy » est assimilée à « organisation plate sans chef », mais (a) une structure hiérarchique ne signifie pas « chefs et contrôle top-down » (b) le besoin de l’émergence de structure est une question de taille.

On commence à voir émerger un modèle de structure récursive avec un contrôle distribué, mais ceci n’est pas suffisant pour obtenir les caractéristiques de résilience et d’adaptabilité que nous avons postulée. Il est également nécessaire, si l’on suit les intuitions que développent l’étude des systèmes complexes et des réseaux sociaux, que le réseau évolue dynamiquement avec une structure de type « scale free », c'est-à-dire une distribution des degrés de connexion entre les équipes qui présente une « longue traine ». Autrement dit, l’organisation du réseau d’équipe n’est pas homogène et fait apparaitre des rôles de connecteur. C’est d’ailleurs précisément un des rôles des managers dans une grande entreprise. Les différentes tentatives de suppression et d’organisation « hyper-plate » se sont soldées par des échecs. On peut également penser à ce qu’écrit Malcom Gladwell dans « The Tipping Point ».

Une telle structure de réseau d’équipe est probablement plus « cultivée » que « construite », pour reprendre les termes de Kevin Kelly. Ce sera pour un prochain billet.






mardi, avril 01, 2014

Grenelle de l'environnement III : enfin un pack législatif avec de l'audace !



J’ai profité de cette période de repos entre deux jobs pour retourner à la conférence CASPI à laquelle j’avais déjà assisté l’an dernier. J’ai participé à une session fort intéressante sur la mise en œuvre des préconisations du Grenelle de l’environnement. Apres Grenelle I et Grenelle II, l’objectif des débats était de définir les contours d’un Grenelle III, en appliquant les méthodes de la systémique pour promouvoir un pack législatif plus efficace.

L’esprit de Jeremy Rifkin et de son livre « La troisième révolution industrielle » planait sur cette conférence. J’ai rencontré Mick Tesys, un ancien élève de Rifkin, qui est maintenant un conseiller de Cécile Duflot. L’ancienne ministre prépare depuis quelques mois sa sortie du gouvernement. Mick a été formé au Washington Center for Complexity and Public Policy, dont la devise est “Strategic Thinking in a Complex World” (avec la declaration suivante que les lecteurs de ce blog apprécieront:  “the work of the Center is based on the premise that insights from complex systems research—complexity science—provide a powerful new theory-driven framework for developing insight about the present and foresight about the future”.)

Mick est en train de développer un pack législatif pour un Grenelle III qui s’appuie sur l’analyse systémique des limites des Grenelles précédents. Son travail s’inscrit dans un programme européen 40/40/40 qui est une proposition pour aller beaucoup plus loin que le plan 20/20/20 actuel. Les « trois 40% » sont :
  • Réduction de 40% des émissions de CO2 d’ici 2025 (ce qui est un objectif ambitieux vu que les chiffres 2012 ne sont pas bons).
  • Augmentation grâce aux outils réglementaires du prix de 40% de l’électricité d’ici 2025 (pour favoriser les sources d’énergie propres).
  • Réduction de 40% de la consommation énergétique Européenne d’ici 2025, pour moitié par une augmentation de l’efficacité énergétique et pour moitié par une politique de réduction de l’activité économique énergivore, dans un souci de réduire la pression sur la planète.

Mick Tesys a fait un très bon exposé lors de la session dont je viens de parler, son plan a été considéré comme une approche crédible pour atteindre les objectifs ambitieux de ce nouveau programme Européen. Je vous livre ici les 6 points principaux de sa proposition :

 (1) Renforcer de façon systémique la pertinence de l’énergie éolienne.
Le coût de production de l’énergie éolienne aujourd’hui est encore trop élevé, et pour un certain temps, surtout si l’on intègre les perspectives de prix des hydrocarbures qui sont très différentes de ce qui était prévu à l’époque du Grenelle I (2007). La solution est donc de continuer à taxer l’électricité, nucléaire ou fossile, pour d’une part subventionner les sources vertes et d’autre part réduire le différentiel de coût. A ceux qui ont objecté que cette politique conduisait à ne pas être compétitive en matière de data centers, Mick oppose une politique de « digital detox ».  Son cabinet prend très au sérieux les menaces que « Google nous rendrait idiot ». J’ai développé ce sujet dans un billet précédent, et on peu lire avec intérêt « The Shallows » de Nicholas Carr. L’abus de la connectivité permanente, de l’hyper-navigation et des smartphones limite notre attention et notre capacité à apprendre. Le plan proposé par Mick inclut la limitation à un seul objet portable (smartphone ou tablette) par français, en s’appuyant sur un numéro unique contrôlé par le GIE portabilité.  « Le digital detox est une opportunité de compétitivité culturelle pour la France » a expliqué Mick, en ajoutant qu’il fallait bien sur interdire les tablettes à l’école pour se concentrer sur l’enseignement des mathématiques, du français et du latin.


(2) Promouvoir l’énergie solaire en réduisant le besoin de recours au stockage.

Le coût de stockage de l’énergie reste très cher, et toute forme de production d’électricité qui s’appuie sur du stockage à cause de son intermittence est condamnée pour l’instant à ne pas être rentable, en dehors des très courtes périodes de pics pour lesquelles les prix de marchés peuvent être plus élevés. Le stockage local, à base de batteries, est particulièrement cher (plus de 150$ par MWh), tandis que les solutions globale, par exemple de type STEP, nécessite de construire des nouveaux réseaux entre les lieux de stockage et les lieux de production. La solution systémique proposée par Mick Tesys est de déplacer la demande par une politique tarifaire qui favorise la consommation diurne. Dans son plan, le coût de l’électricité serait multiplié par 4 dès que le soleil tombe, avec une péréquation pour réduire le cout pendant la journée. En bon disciple de Jeremy Rifkin, il voit dans les technologies de compteur intelligent du Smart Grid la possibilité de déplacer la demander avec de la tarification dynamique.

(3) Favoriser la voiture électrique grâce à la règlementation urbaine.

Le coût élevé des batteries reste un grave handicap pour l’essor des voitures électriques. Compte-tenu des durées de vies limitées, la propulsion électrique dont l’énergie sort d’une batterie est difficilement compétitive avec les moteurs thermiques modernes, surtout sous une forme hybride. Comme il existe en revanche un avantage en dehors de la batterie (le groupe propulseur électrique coûte moins cher qu’un ensemble moteur thermique et boite de vitesse), l’analyse économique de Mick Tesys montre qu’il existe deux configurations rentables : la petite voiture urbaine avec une faible batterie (le gain sur le coût du moteur compense partiellement le prix de la petite batterie) ou les voitures haut de gamme, de type Tesla S,  pour lesquelles le prix de la grosse batterie est « caché » dans un ensemble d’équipements de prestations. Pour la voiture moyenne, la rentabilité de la propulsion électrique n’est pas là, ce qui explique les résultats décevants de Zoe.  La solution systémique est donc également de déplacer l’équilibre des avantages/inconvénients grâce à la régulation.  Le plan « Grenelle III » comporte deux mesures : (a) nouvelles limitations de vitesses : 100km/h sur autoroute, 70 km/h sur route et 30km/h en ville ; (b) la décision de réserver à partir de 2017 les centres villes aux véhicules électriques (« zéro émission »). La simulation effectuée par le LMSCAI (Laboratoire de Modélisation de Systèmes Complexes à base d’Agents Intelligents) montre que dans ces conditions, le parc de voitures électriques pourrait atteindre 50% en 2020.

(4) Accompagner la transition énergétique par une véritable politique sociale

Mick Tesys est d’une grande lucidité sur les impacts de son plan, il déclare « Notre politique en faveur d’une énergie chère va produire de la décroissance industrielle ».  C’est un véritable choix de société, il faut apprendre la frugalité aux Français. Pour que cette transformation soit juste, elle doit donc d’accompagner d’une taxation sociale à l’usage. Mick a présenté une proposition de tarification qui s’appuie sur un prix « social » pour la fraction de consommation en eau, chauffage et électricité qui correspond à une consommation frugale d’un individu modéré. Le tarif augmente ensuite sensiblement, pour atteindre un niveau maximal qui intègre une taxe carbone de 250€/t pour les familles aisées. Le débat sur l’équité par rapport aux familles nombreuses n’a pas eu lieu,  le plan Grenelle III comporte une proposition de formation d’inspiration Malthusienne dans les écoles pour décourager les familles nombreuses et réduire la pression sur la planète (empreinte écologique). Devant une audience qui lui était acquise, Mick a déclaré : « Il faut s’inspirer de l’exemple chinois, et également proposer des modèles alternatifs de famille qui conduisent à la décroissance naturelle de la population ».


(5) Profiter de l’essor des objets connectés pour faire de la France un modèle de civisme contrôlé.

La conférence a été l’objet d’un long débat sur la vitesse de pénétration des solutions de  « Smart Home » et de capacité d’avoir des « chauffages intelligents » couplés avec les « Smart Grids ». Mick travaille avec le cabinet de Fleur Pelerin pour mettre un boitier Netatmo chez tous les français. « Nous devons profiter de l’avance de la France dans le domaine des objets connectés et installer un compteur de calories connectés dans tous les foyers ». Bien avant l’arrivée des chauffages intelligents de 3 ème génération, ces objets intelligents peuvent servir d’instruments de mesure et de contrôle, en faveur d’une vaste politique de frugalité calorique. Il s’agit de reprendre le principe des radars automatiques et du permis à point. Chaque boitier est capable de détecter une température anormalement élevée et d’envoyer automatiquement par email (pour éviter la déforestation, il faut faire mieux que les amendes liées aux excès de vitesse) un procès-verbal d’excès de chauffage. Chaque foyer dispose d’un permis à points, pour mettre en place une boucle d’apprentissage avec feedback. Mick Tesys a commenté les expériences de Smart Grids en Corée, qui  montrent un effet rebond : la plus grande efficacité énergétique est utilisée  par les habitants pour obtenir un plus grand confort thermique. L’intérêt de l’utilisation des TIC (objets communicants) est de permettre au régulateur d’éviter ces comportement déviants et peu civiques.



(6) Inscrire la consommation responsable dans un grand programme de E-santé
Parmi les différents gaz à effet de serre, le méthane est particulièrement inquiétant, puisque son PRG (potentiel de réchauffement global) est 25 fois supérieur à celui du dioxyde de carbone. Mick souhaite sensibiliser l’opinion publique sur les ressources nécessaires pour produire un kilo de bœuf, comparées à celle nécessaires pour produire un kilo de protéines végétales, ainsi qu’aux externalités négatives telles que la production de méthane. Dans le cadre du volet « consommation responsable » de son programme législatif, il instaure une taxe sur la viande de bœuf et sur les pâtisseries au beurre. Pour renforcer l’éducation des nouvelles générations, il est également proposé d’instaurer un régime végétarien obligatoire dans l’enseignement supérieur, « une fois que les élèves on terminé leur croissance ». En revanche, parce qu’il a lu Kahneman, Mick Tesys réduit les taxes sur le sucre et le chocolat. En effet, il est scientifiquement prouvé que le sucre nous rend plus créatifs et plus collaboratifs, « ce qui est indispensable pour mettre la France en avant de l’économie numérique et du savoir ».  Ce volet de consommation responsable contient de nombreuses mesures destinées à améliorer la santé de nos concitoyens. Par exemples, la TIPP s’appliquerait aux huiles de consommation (ce qui supprime le problème des agriculteurs qui roulent à l’huile de colza) et aux spiritueux (pour réduire le problème de l’alcoolisme en France). Ce programme instaure aussi une mesure annuelle du cholestérol pour tous, et une indexation de la CSG sur ce taux de cholestérol. Je cite : « Il ne s’agit pas de matraquer les français avec une nouvelle taxe, mais d’améliorer les connaissances et la prise de conscience de tous ». La vocation de ce programme est de s’effectuer par auto-mesure grâce aux progrès constants en matière d’objets connectés portables. Le fléau de l’augmentation de l’obésité doit être adressé, et cette mesure systémique est de nature à renverser la tendance, en s’appuyant sur un indicateur qui est justifié d’un point de vue médical.


Il est clair que les propositions de Mick Tesys ne sont pas forcément populaires, mais on ne peut être que frappé par la cohérence de ce programme.  Ce travail a donné lieu à un article dans le Journal on Policy and Complex Systems. Il s’appuie sur le principe de « Irritant Homeostasis » qui postule que si l’environnement devient irritant, il faut irriter les citoyens. C’est d’ailleurs ce principe qui est utilisé à Paris pour faire évoluer la circulation automobile.
C’est également une belle illustration de la « Systemic Attitude »,  le fait de travailler sur les causes profondes et de proposer des législations qui vont profondément changer nos habitudes.






samedi, mars 15, 2014

Entreprises Numériques et Homéostasie Digitale


Le titre de ce long billet est un clin d'œil à mes lecteurs et une référence systémique. Je vais m'intéresser aux transformations que doivent faire les entreprises pour s'adapter à la "révolution numérique" dont nous parlent beaucoup d'auteurs, et en particulier trois livres que je vais brièvement résumer aujourd'hui. Trois livres donnent un point de vue plus large … au détriment de la concision, mais je vous proposerai une petite synthèse en conclusion.
La révolution numérique, c'est-à-dire l'ensemble des changements que les technologies et les usages digitaux sont en train de provoquer dans la société, ainsi que ceux qui sont probables ou souhaitables, est un vaste sujet. Les trois livres qui vont suivre parlent de politique, d'éducation, de santé ... pour ne citer que trois exemples de fonctionnements fondamentaux de nos sociétés qui sont impactés par cette révolution. Je vais de mon côté restreindre mon champs d'investigation et ne m'intéresser qu'à l'impact sur les entreprises.
Gilles Babinet propose une décomposition des entreprises en trois types:
  • Celles qui fabriquent des outils lies au domaine numérique (l'équivalent des fabricants de pelles et de pioches au moment de la ruée vers l'or, dont ont sait qu'elles ont été les premiers bénéficiaires)
  • Celles qui produisent des produits et services que la révolution numérique rend complètement immatériel (information, livre, photos, vidéo, musique,...)
  • Toutes les autres, qui continuent à produire des produits et services avec une composante matérielle, mais qui doivent s'adapter à un nouvel environnement de fabrication, de distribution et de consommation qui est radicalement modifié par l'irruption du monde numérique. Tous les clients de ces entreprises ont maintenant, dans leur très grande majorité, une "vie numérique" (lien), qui se décline selon trois axes: ils consomment des produits et services numériques de la deuxième catégorie  (livres, films, musique, etc.), ils passent du temps sur des plateformes de service et de communication et ils utilisent des objets connectés.
C'est à cette troisième catégorie que je vais m'intéresser, dans ce billet comme dans d'autres qui suivront. J'ai fait appel à la notion d'homéostasie car il s'agit bien d'un déplacement d'équilibre : puisque nos clients changent, nos entreprises doivent changer. On pourrait aussi dire que l'homéostasie postule que la "numérisation" de l'environnement trouve son écho dans l'organisation interne de l'entreprise. Aujourd'hui je vais utiliser trois livres qui décrivent ce changement sur l'environnement (les clients et la société qui les regroupe) pour commencer à esquisser les changements de l'entreprise numérique, pour suivre certaines pistes esquissée dans la présentation de l'Entreprise 3.0.

Même avec cet angle d'analyse, ce sujet reste infiniment vaste. A titre d'exemple, l'IRT SystemX (Institut de Recherche Technologique) se positionne comme un « accélérateur de la transformation numérique ». Je n'ai donc aucune prétention de complétude ... mais à l'inverse l'approche "systémique" qui cherche à relier les transformations de l'entreprise et celles de son environnement me semble pertinente et féconde. En effet, beaucoup d’articles sur les stratégies digitales bénéficieraient d’une analyse plus profonde en faisant de façon systématique une recherche des causes profondes, c'est à dire des causes communes à l'ensemble des transformations que chacun peut constater. Autrement dit, il s'agit d'appliquer les "5 Pourquoi" du lean management au diagnostic de la nécessaire Digitalisation de nos entreprises.

1.       Age de la multitude
Je commence par le livre de Henri Verdier et Nicolas Colin, que j'ai lu il y a 18 mois, parce que d'une part je n'avais jamais fait de compte-rendu alors que je le cite fréquemment et parce qu'il est à mon avis une référence incontournable sur le concept de plateforme, un des mots clés émergent du domaine de l'" entreprise numérique".
Voici quelques idées clés selon mon propre prisme (ceci sera vrai pour les 3 ouvrages, ils sont beaucoup plus large dans leur propos que le thème que je retiens ici):

  • Le livre débuté avec les trois lois fondamentales de la révolution numériques : (1) la baisse des couts, souvent spectaculaire,  rendue possible par les technologies du numérique, (2) le principe de l'innovation « inachevée », et (3) l'innovation externe, c'est à dire le principe qu'il y'a plus d'intelligence à l'extérieur qu'à l'intérieur de l'entreprise. La première loi rappelle le livre "Free :  The Future of a Radical Price" de C. Anderson, d'ailleurs les auteurs conseillent de travailler comme si les ressources de calcul (le CPU) était gratuit. La baisse exponentielle due à la Loi de Moore soutient cette proposition: même si rien n'est gratuit, une telle baisse invalide en permanence nos repères. La même remarque pourrait être faite sur le coût de stockage. Lors des entretiens que nous avons organisés à l'Académie des Technologies sur le "Big Data", la première révolution qui nous a été citée est celle des coûts. Bien sur, on sait et on peut faire des nouvelles choses avec les technologies du Big Data (et avec les  nouvelles formes de données produite par la révolution numérique, des nouveaux usages aux objets connectes), mais le plus gros choc, c'est de faire des choses complexes pour une fraction infime du coût qui aurait été nécessaire il y a 10 ans.

  • La deuxième loi est celle de l'innovation continue : L’économie numérique est une économie d’itération, l’innovation doit être inachevée pour représenter un processus itératif qui, en collaboration avec l'utilisateur de l'innovation, améliore et adapte sans cesse. Je cite: « L’innovation continue et jamais achevée n’est pas seulement synonyme d’accélération. Elle est aussi un changement qualitatif. Elle appelle, en réponse, un changement du même ordre dans la stratégie des acteurs. […] C’est, par exemple, passer d’une vision linéaire et temporelle (anticiper le futur technologique et s’y préparer) ) une vision « plateformiste » (s’organiser pour être capable d’absorber tous les flux d’innovation qui surviendront). Pour les lecteurs du grand sinologue François Jullien, c’est passer de l’efficacité telle que la conçoit l’Occident et telle que l’a exprimée Clausewitz (toujours fondée sur un exercice de la force et un recours à la fortune des armes) à une vision orientale (fondée sur la perception adéquate de la dynamique des forces en présence et recherchant à les orienter par le geste minimal) ». On retrouve ici beaucoup des idées du Lean Startup d'Eric Ries que j'ai abondamment cité dans ce blog. A noter, ce livre contient beaucoup de choses très intéressantes sur l’innovation, la R&D et la situation Française, qui sont hors de mon propos mais méritent l'attention.
  • La troisième loi est celle qui donne son nom au livre: il s'agit d'innover à l'âge de la multitude: c'est à dire avec la multitude des contributions possibles de l'innovation ouverte. Cette multitude est multiforme: c'est chaque utilisateur qui co-construit l'innovation, c'est l'ensemble des prospects, en tant que groupe social, qui peut être mobilisé, en exploitant la sagesse des foules, c'est également la multitude des partenaires possibles, en particuliers des petites entreprises innovantes telles que les startups. Parler d'open innovation conduit naturellement à la dualité plate-forme et application, dans laquelle la plateforme est la manifestation physique de la stratégie d'agrégation de valeur de la part de partenaires multiples. Ce livre est la référence (généraliste) sur le concept de plateforme et remplace avantageusement « What would Google Do » de Jeff Jarvis que j’ai souvent cité. Construire une plateforme est un art plus qu'une science, même si ce livre contient des conseils intéressants, comme ceux que l'on trouve dans le texte célèbre de Steve Yegge. Ce texte montre d'ailleurs pourquoi Google n'est pas forcément le meilleur exemple en termes de plateforme, malgré les propos de Jeff Jarvis (ici aussi, il faudrait nuancer, certaines plateformes de Google, telles que Google Map, sont de vrais exemples de ce qu'il faut faire en termes d'API). En revanche, Nicolas Colin à continué la tradition de "What would Google do ?" avec la série de conférences " les barbares attaquent " que je recommande vivement. On trouve dans le livre cette jolie citation de Mark Zuckerberg au G8 : « Nul ne peut être certain d’être toujours le plus innovant, mais il est possible de s’organiser pour attirer les innovateurs sur une plateforme ». Notons pour faire un lien avec un billet précédent sur les systèmes complexes qu'une plateforme est un objet émergent, qui se construit par jardinage ("grown, not designed").

  • On trouve une référence intéressante au "permission marketing" de Seth Godin : dans ce nouveau monde il devient abusif de continuer le marketing en mode push, et il faut passer au mode pull, c'est à dire demander au client l'autorisation de lui envoyer de l'information, ou plus. Cette idée à été fortement développée dans le live clé de Doc Searl "The Intention Economy",  je vais y revenir. C'est la déclinaison dans le monde de la relation client-fournisseur d'une des conséquences de la révolution des outils de communication dont j'ai beaucoup parlé dans le cadre de l'entreprise 2.0. les technologies de communication sont tellement efficaces et peu chères (pour celui qui veut parler) qu'il se produit une surcharge informationnelle pour celui qui reçoit. Il faut passer du push au pull, selon les principes systémiques du lean.

  • La multitude est une externalité positive ! C'est un corolaire de la troisième loi sur l'innovation ouverte.  L'auto-organisation des communautés (des clients, de détracteurs de parties prenantes, etc.) est quelque fois un défi (l’importance grandissante de la RSE est la conséquence du pouvoir grandissant des communautés qui est alimenté par la révolution numérique), mais c'est surtout une opportunité, d'où la référence aux externalités positives (lien). Il faut savoir utiliser le crowdsourcing, les communautés, etc., et cela demande du travail, de la patience et une nouvelle façon de concevoir l'entreprise (d'où cette idée de "transformation numérique"). Le livre est très riche sur ce sujet !  Il insiste à juste titre sur l'importance de l’écosystème pour que la multitude fonctionne, autrement dit, sur l'ensemble des relations d'interdépendance entre les différents acteurs, ainsi que sur les mécanismes de partage de valeurs qui sont nécessaire pour assurer la durabilité. Comme pour le développement de "plateformes 2.0", il y a deux enjeux systémiques: construire la masse critique pour que le cercle vertueux démarre (cf. La remarque sur la Loi de Metcalfe dans la section suivante) et assurer un partage de valeur suffisant pour qu'il ne s'épuise pas.
  • J'apprécie particulièrement les pages qui explique le rôle clé du design: « Nous sommes entrés dans un cycle dominé par le design, c’est-a-dire le travail, non pas sur l’apparence des choses, mais sur l’intelligence des objets et des situations, leur proposition au marché, l’expérience utilisateur, la maniabilité du complexe ». Je pense que ce dernier point est particulièrement important : le design sert à apprivoiser la complexité. Le monde numérique est également un monde d'objets (du smartphone aux objets connectés de notre quotidien), la médiation vers les services du Web est portée par un nombre grandissant d'objets qui permettent des expériences à la fois plus simples (plus naturelle) et plus riches.
  • Henri Verdier et Nicolas Colin proposent également quelques pages sur la transformation interne de l’entreprise : le numérique réduit les coûts de transaction, donc permet de repenser l’organisation: la collaboration avec des entités externes est simplifiée – ce qui est un point clé dans la métaphore plateforme/application. Le livre promeut un management radical dans la mouvance de l’entreprise libérée.
  • J'ai noté un jolie plaidoyer pour l’informatique, que je vais réutiliser dans mon rôle de président de la commission TIC de l’AdT : « Mais il faut dépasser ce mépris des élites françaises pour la technologie et lui reconnaitre au contraire toute sa dignité : l’informatique n’est pas seulement un savoir technique : c’est désormais un langage universel. C’est un savoir émancipateur. Savoir coder, aujourd’hui, est un savoir-être ».  Je reviendrai sur ce propos un autre jour, car si le vieux programmeur en moi acquiesce, le sens de « coder » est en train de changer : ce n’est plus un ordinateur qu’il faut programmer, c’est un système qui évolue constamment.  J’ai aussi relevé et apprécié : « code is law, architecture is politics ». Je le prends avec un double sens : d’une part,  l’architecture c’est de la politique au sens noble, l’organisation au service de la cité, et, d’autre part, l’architecture est au service du code et pas l’inverse (cf. mon talk à la DISIC).
  • En filigrane, sont abordés dans ce livre les concepts de transhumanisme, de robotique et de la singularité. Nous allons y revenir avec le livre de Gilles Babinet qui aborde ces sujets plus nettement. J'y ai fait quelques références voilées dans des exposés précédents et j'ai également publié un article dans la revue Conférence

2.       L’Ere Numérique
Le deuxième livre dont je vais parler est au contraire très récent. Il s’agit de "L’ère numérique – le nouvel âge de l’humanité"  de Gilles Babinet. On peut trouver de nombreuses interviews de Gilles Babinet parce que ce livre à fait un sortie remarquée. C’est amplement mérité, "l'ère numérique" est un livre incisif et "tought-provoking", qui pousse le lecteur à réfléchir sur le futur de notre société et en particulier le futur du travail. Mon compte-rendu, qui se focalise sur l'entreprise, est donc particulièrement incomplet ; en particulier je recommande la lecture des pages sur l'éducation dans une société numérique. Ceci étant dit, ce livre apporte également un éclairage intéressant à la transformation des entreprises numériques :

  • Il insiste à juste titre sur l'importance de la prédiction. Il s'agit bien entendu de prédiction à court terme. Il n'y a aucune contradiction avec l'accroissement de la complexité qui rend la prédiction à moyen ou long terme impossible (tout au moins très difficile et périlleuse). La prédiction à court terme est rendu possible par la technologie (puissance de calcul, Big Data,  techniques d'apprentissage et d'analyse statistique ...), et son efficacité et sa pertinence sont chaque jour mise en évidence par des nouvelles applications (parmi lesquelles il faut bien sur citer Google et Google Now, Amazon  ou Netflix).

  • Une contribution intéressante au débat sur les gains de productivité: en 2011 les statistiques du bureau du travail américain montrent des gains de productivité qui sont au plus haut niveau connu. Gilles Babinet utilise judicieusement la Loi de Metcalfe pour expliquer le retard entre le déploiement et l’effet. Cet effet retard est présent dans de nombreux domaines numérique, car on peut "lire la loi de Metcalfe à l'envers" : pour prendre l'exemple de l'entreprise 2.0, lorsque une solution de ESSP est déployée à 50%, on obtient seulement 25% des bénéfices. On trouve dans le livre une  Illustration passionnante de ces gains de productivité à travers l'exemple de Grameenphone, avec cette citation du CEO: « la connectivité c’est la productivité »

  • Quelques pages sont consacrées de façon classique et attendue au Crowdsourcing. Je renvoie ici le lecteur au livre référence de Surowiecki (Wisdom of crowds) et aussi au livre de Tappscott et Willams (Wikinomics).

  • Ce livre détaille plus que le précédent le sujet du Big Data, en faisant référence au « nouveau pétrole » que représentent les données. La combinaison de l’explosion des sources de données disponibles et de techniques de traitement dont les possibilités évoluent plus vite que la Loi de Moore grâce à la distribution massive changent radicalement l’activité d’analyse de donnée. Je cite : « Il n’est pas aberrant de penser que, à lui seul, le phénomène big data puisse représenter une rupture plus forte qu’a pu l’être en son temps l’avènement de l’ère industrielle ». Je recommande néanmoins de lire l’excellent livre « Big Data – A Revolution That Will Transform How We Live, Work and Think » pour mieux comprendre l’ampleur de cette révolution. Je prépare en ce moment un rapport pour l’Académie des Technologies sur les enjeux du Big Data, pour faire écho au rapport d’Anne Lauvergeon, je reviendrai sur ce thème dans quelques mois.

  • Gilles Babinet insiste sur l’importance de la relation et de sa durée dans le temps. Je le cite : «l’industrie 4.0 est donc celle qui saura se rapprocher des besoins de ses clients, afin de les accompagner quotidiennement, longtemps après leur avoir vendu un produit». Il propose l’exemple très intéressant de GE qui fournit des batteries en tant que service.

  • De façon plus approfondie que dans le livre précédent, on trouve de nombreuses réflexions sur la transformation du travail, face à l’automatisation et la robotisation, en écho au livre de Brynjolfson et McAffee.

3.       Le Choc  Numérique
Le dernier livre de ce billet est un livre collectif, également consacré à la révolution du monde numérique. il s'agit du "choc numérique " écrit collectivement par des consultants de SIA Partners sous la direction de mon ami Jean-Pierre Corniou. Ici aussi le propos est très large, mais je me concentre sur l'homéostasie digitale (un petit clin d'œil a Bertrand Duperrin) :

  • Une des première contributions du livre est de proposer une définition du numérique, un exercice assez difficile, puis de poser les douze principes fondamentaux de l'économie numérique. Le méta principe qui guide ces douze principes est le passage d'une économie matérielle, fondée sur des biens physiques (usus, fructus, abusus) à une économie immatérielle. je reviendrai dans la conclusion avec ma propre liste de principes: même si j'ai envie d'élargir la liste du "Choc numérique", j'applaudis cet effort de conceptualisation.

  • Du point de vue de l'entreprise, une des révolutions les plus fondamentales est la mise en réseau de ses parties prenantes, et en particulier de ses clients. La structure de réseau est essentielle, elle donne des clés pour interagir avec la "multitude".  Le livre souligne l'Importance du « réseau social externe » de l’entreprise : les fans, les détracteurs, … et leurs propres réseaux sociaux. Ceci est illustré avec l'Exemple de la redoute qui avec un réseau de 684000 fans fin 2011 pouvait revendiquer une audience de 22 millions de personnes (les amis des fans). Un autre exemple intéressant qui montre comment une entreprise doit travailler avec un écosystème de partenaire est celui de Nespresso qui anime un réseau de designers avec lequel il a conçu une de ses nouvelles cafetières. Ce modèle d'organisation avec une plateforme mondiale au centre et un écosystème de petites entreprises, voir de travailleurs indépendants, préfigure une des évolutions probables d'un travail et de l'entreprise.
  • Nous savons depuis Kenneth Arrow que le fondement de l'économie est la confiance (lire le livre "La fabrique de la défiance" dans laquelle on trouve cette belle définition de James Coleman: « Un individu est confiant s’il met des ressources à disposition d’une autre partie, en l’absence d’un contrat formel, en espérant en retirer des bénéfices »). C'est encore plus vrai pour l'économie numérique, ce qui est rappelé et expliqué dans ce livre. On y trouve une référence au célèbre TED talk de Rachel Botsman : « The currency of the new economy is trust ». C'est illustré avec des exemples des sites qui sont des sites de réputation autant que des sites marchands, tels que e-Bay ou AirBnB.
  • Je ne l'ai pas souligné jusque' à présent, mais on trouve dans ces trois livres une caractérisation du monde moderne en terme de complexité et de changement permanant qui est tout à fait alignée avec le thème de ce blog, en particulier la transformation de l'environnement et sa complexité croissante. "Le Choc numérique" fait référence à la Génération Flux :  un point essentiel pour les entreprises numériques puisqu'il s'agit à la fois de leurs clients et de leurs collaborateurs. La complexité et le chaos vont de pair: les clients ont appris à gérer le changement permanant et la complexité grandissante en déplaçant leurs usages et leurs attentes.
  • Impression 3D : comme je ne partage pas l’enthousiasme commun sur l’impression 3D « pour tous », je ne ferai pas le compte-rendu des quelques pages qui expriment que cette technologie va se répandre dans les maisons et changer nos vies. Je pense que cette technologie va se répandre dans les ateliers et changer nos vies, mais pas – dans les 10 ans qui viennent – sous forme de consumer products. En revanche, je souscris bien sûr au débat intéressant sur la robotisation, qui représente la partie pleine du verre sur le thème « la robotisation permet d’éviter les délocalisations ». J'aurai l'occasion d'y revenir, car je suis également sensible à la vision plus sombre (le verre vide) qui voit à terme une disparition progressive du travail tel que nous le connaissons (un point de vue qui est bien éclairé par le livre de Gilles Babinet, cf. plus haut).
  • Ce livre parle bien sur de Big Data : l'accent y est porté sur l’analyse « classique » des 3V (volume, variété, vitesse), avec un focus particulier sur l’internet des objets et la multiplication des capteurs.  Comme dans le livre précèdent, les auteurs insistent sur l'importance de ce "nouveau domaine" pour les entreprises ... je ne peux qu’être d’accord avec cette analyse, mais je pense même que le sujet est de plus grande ampleur que ce qui est écrit ici. Le Big Data est plus que des gros volumes de données ou des nouvelles formes de données (même si c'est bien sur aussi cela), c'est la combinaison de machine learning (méthodes d'apprentissage), d'une démarche expérimentale dans laquelle la sérendipité devient un principe directeur (avec par conséquent des processus itératifs et des méthodes de type agile et enfin des algorithmes et données massivement distribués. C'est à la fois un domaine industriel avec des applications spectaculaires et un domaine scientifique avec des questions difficiles. Pour les entreprises, c'est une autre façon de travailler, et si elles ne la maîtrisent pas, elles risquent de se faire surprendre par l'attaque des barbares. "Le Choc Numérique" traite également du Big data et de la CNIL : il porte un plaidoyer pour que la France ne soit pas en retard. Je cite:« si nous ne faisons pas ce pari, d’autres le feront pour nous et notre pays restera bloqué sur un modèle de société certes très efficace au début du XXe siècle quand la France détenait plus de 30% de la richesse mondiale, mais qui est totalement inadapté à notre monde actuel ».
  • Le 6eme chapitre sur l’e-management commence par une référence à Peter Senge (The Fifth Discipline) à laquelle j’adhère avec enthousiasme, puisque l’apprentissage collectif et continu est une nécessité de l’entreprise numérique.  Si je peux me permettre une remarque pédante, c'est une signature de cette homéostasie avec un environnement qui se renouvelle et se complexifie de façon continue. L'entreprise 3.0, tout comme la lean software factory, sont résolument placées sous le signe de l'apprentissage collectif. J'ai beaucoup apprécié les discussions sur la notion d'échelle avec une belle référence à Air France qui explique que les outils de communication numérique n'abolissent pas les seuils de tailles critiques, et qu'il faut toujours tenir compte du nombre de Dunbar. Les exemples concrets sont parmi les éléments les plus intéressants du livre. On trouve une référence détaillé et intéressante à Lippi. Lippi est un exemple d'entreprise libérée, tout comme Favi, chère à Isaac Getz. La motivation intrinsèque, l'autonomie et le travail collaboratif y sont des valeurs essentielles. De la même façon, l’exemple détaillé de Corning est également très intéressant, pour d'autres raisons. C'est une belle illustration du potentiel de situation cher à François Jullien.
  • Une des contributions les plus visibles du livre est la notion de cerveau d’œuvre et d’iconomie (économie de l’innovation et du numérique). Le livre s’appuie sur les travaux du Xerfi pour caractériser cette iconomie (collaborative, itérative et expérimentale, organisée autour de plateformes, animée par des réseaux et des communautés, avec une capacité de personnalisation de masse, etc.) et propose de remplacer la main d’œuvre par le cerveau d’œuvre. cette idée de cerveau d’œuvre nous rappelle la philosophie de Toyota: l'entreprise a besoin du cerveau de chacun. Je me retrouve bien dans la description de l’iconomie, mais j’ai une petite réserve sur "l’hypertrophie du cerveau". Le travail de demain, qui est bien difficile à définir dans un monde de robot et de logiciels intelligents, fait appel à l'ensemble de nos capacités, notre cerveau mais aussi nos émotions, notre empathie, l'ensemble de notre corps qui est un merveilleux outil de perception et de communication (c'est une petite différence, mais qui pourrait devenir significative dans les décennies qui vont suivre).
  • Le livre se termine avec quelques pages sur l’importance de l’open source, à la fois en tant que ressource et que modèle, un sujet qui mériterait un développement plus long que je réserve à un prochain billet. Le monde numérique est irrémédiablement lié au monde du logiciel : une bonne stratégie numérique passe par une stratégie logicielle (quelque soit son ambition, d’une simple application à une plateforme ouverte). Comprendre les principes de l’open source est devenu indispensable pour construire une stratégie numérique.

4.       Conclusion

Ce billet est déjà très long, je vais néanmoins le conclure par une  synthèse personnelle inspirée par la lecture du livre « Le choc numérique ». Je vous propose ici mes sept principes de « l’Entreprise numérique ». Le choix de sept principes est éminemment personnel et subjectif. Il me semble que l'on peut dériver la plupart des concepts clés de transformation numérique à partir de ces principes (j'applique un méta-principe d'économie, un petit coup de rasoir d'Ockham, mais la capacité à dériver une idée à partir d'une autre est un exercice personnel). Mon objectif principal est de faire évoluer cette liste à partir des critiques que je ne manquerai pas de recevoir.

(1)   Le client est l’architecte de sa propre expérience
Nous sommes passés des produits aux services, puis des services aux expériences. L'expérience est un concept unificateur, qui englobe le contenu, le où les objets qui matérialise le service et le contexte. L'expérience est forcément personnelle, « quand et où je veux », le "où" étant physique et numérique. L'expérience laisse le contrôle au client, c'est la meilleure forme de personnalisation, lire le livre "The Future of Competition – co-Creating Unique Value with Customers" pour comprendre à quel point cette petite affirmation révolutionne l'organisation des entreprises (et de leur système d’information).



(2) La révolution Numérique se matérialise par des objets, à commencer par le Smartphone. 

Parce qu'il combine la puissance d'un ordonnateur de plus en plus performant, la richesse d'une interface tactile et un lien permanent de plus en plus rapide avec le cloud, le Smartphone transforme radicalement nos vies et l'empreinte de la révolution numérique. A côté des smartphones et autres tablettes, ce sont tous les objets qui deviennent connectés et augmentent de la sorte l'étendue et la richesse de nos vies numériques. Le design, dans le sens complet de design d'expérience, devient une compétence fondamentale des entreprises numériques, tout comme la « culture produit ».



(3)   Tout action/produit/service immatériel a ou aura une déclinaison dans le monde numérique. C’est le cœur des principes du « Choc numérique » (décliné sur les conseils, transactions, paiements etc.). Ce mouvement est inéluctable à cause de la baisse constante des couts et des progrès des technologies. La baisse des coûts est en soit révolutionnaire pour les entreprises (elle permet l’attaque des barbares) mais également pour les clients. C'est la promesse de rendre de la valeur au client (une promesse fondamentale de l'économie numérique) et encore plus de lui rendre du temps utile.



(4)   L'attention du client est une ressource rare qu'il faut mériter en lui apportant de la valeur dans une perspective de conversation. Depuis "The Cluetrain Manifesto", nous savons que les marchés sont des conversations. La conversation suppose l'écoute, il s'agit de co-construire avec le client les produits et services que celui-ci assemble pour produire ses expériences. Le boom du modèle freemium illustre cette première phase non-marchande, mais riche en valeur, de la conversation. Toute interaction humaine avec la marque s’inscrit dans une relation -  personnelle, empathique, émotionnelle -  et doit « dépasser les attentes du client », sinon une forme numérique est suffisante !



(5) Respecter le client implique de reconnaitre ses communautés et son droit à l’expression collective. Le client et le prospect ne sont pas isolés, ils font partie de réseaux de communautés et disposent d'une information en temps réel, souvent supérieure à celle de l'entreprise sur ses propres produits et services. La dimension sociale fait partie de l'ensemble du cycle de vie de l'expérience, depuis l'intention jusqu'au feed-back. Les entreprises ont un devoir d’écoute des entreprises sur les communautés qui se forment autour de ses produits.



(6)  Le client aspire à une expérience innovante et ouverte dans le respect de sa vie privée. Cet appétit constant de nouveautés et d'innovation exige une stratégie de plateforme et d'innovation ouverte, qui génère de nouveaux business modèles. L'entreprise doit gérer la dualité entre l'ouverture   (par exemple des API qui enrichissent sa plateforme) et le respect de la vie privée, en partant du principe que le client est propriétaire de ses données. Cette tension est créatrice de valeur : l’utilisation de données d’usage personnelle est légitime si elle est acceptée, révocable et rémunérée.



(7)  l'économie numérique est une économie de l'intention: il faut s'appuyer sur les traces numériques pour comprendre les besoins des clients, au bon moment. Pour reprendre les termes de Doc Searls, il faut passer du « push au pull », lorsque les transactions sont des épiphénomènes des conversations qui s’inscrivent dans des relations. Cette perspective s’appuie de manière fondamentale sur la confiance (qui est donc le premier capital de l’économie numérique), par exemple dans la collecte de données.