samedi, novembre 30, 2013

Sérendipité, Plannification et Abstraction


Après le billet précédent qui était une synthèse, je vais aujourd’hui me livrer à l’exercice inverse, de partager quelques réflexions plus personnelles, qui touchent à l’organisation, aux réunions et à la communication nécessaire à la prise de décision.

1. Les reunions et la sérendipité organisée


On constate dans la plupart des réunions, dans la plupart des entreprises, que les ordres du jour ne sont pas toujours respectés, et que les prises de décisions ne sont pas aussi rationnelles que ce que l’on pourrait penser. On aura reconnu ici les prémices du « Garbage Can Decision Model », je vous renvoie à l’interview de James Olsen. Le terme de « Garbage Can » (poubelle) pousse beaucoup de personnes à voir dans ce modèle une critique très négative. Si on lit l’article originel et son modèle computationnel (en FORTRAN), on voit qu’il s’agit plutôt du fait que la planification se heurte à un niveau de complexité trop élevé et qu’elle est remplacée par l’opportunisme, et une certaine dose d’aléatoire dans le processus de décision. Le mécanisme du « Garbage Can Decision Model » est un mécanisme émergent, avant que ce mot ne devienne à la mode dans les systèmes complexes (l’article date de 1972).

On pourrait dire, en étant plus positif, que les occasions de décision émergent par sérendipité  : le fait que les bons acteurs se retrouvent au bon moment, dans le bon contexte.  La structure des comités réguliers et programmés joue alors un rôle particulier : celui d’organiser la sérendipité. Ce n’est pas l’agenda de la réunion qui compte, c’est le fait de donner à un certain groupe l’occasion de se rencontrer. Dans un mode stable et organisé, une réunion sans agenda est interprétée comme un défaut d’organisation. Dans un monde changeant et complexe, la même réunion devient un point de synchronisation, comme les stand-up meetings du monde agile.

Si je faisais allusion au modèle computationnel de Cohen, March et Olsen, c’est que je me suis livré au même type d’expérimentation il y a quelques années lorsque j’étudiais les réseaux d’affiliation (les graphes de réunions). Le résultat principal est que la structure du réseau de réunion a un impact clair sur la propagation de l’information. Autrement dit, on retrouve la même idée que le réseau de réunion constitue une colonne vertébrale pour la circulation de l’information (dans une grande entreprise), qui crée les opportunités de contacts réguliers et donc oriente la sérendipité, indépendamment de l’ordre du jour ou de l’intitulé des réunions.

On peut remarquer que c’est la même idée de sérendipité organisée qui justifie la création d’un pôle de compétitivité (plus que le financement commun, qui ne nécessite pas l’unité géographique). Un pôle de compétitivité regroupe des acteurs d’un même domaine (laboratoires, startups et industriels) avec un double objectif, celui de réduire les coûts de transaction (le « setup cost » d’une prise de contact ou de communication) et de créer des opportunités de contacts, c'est-à-dire de créer de la sérendipité, puisque l’innovation nait des rencontres. Tout ceci s’applique de la même façon aux réunions dans les entreprises (du moment qu’elles ne sont pas détournées en rituels sans âme et sans intérêt, ou en cérémonies d’annihilation des idées et des compétences).

2. Planifié  versus spontané


Il est facile de se convaincre qu’il est utile d’optimiser l’hypergraphe des réunions (l’autre terme pour le réseau d’affiliation) si celui-ci existe, mais on peut se lancer dans une critique plus radicale et se demander si dans un monde complexe et changeant, il est encore nécessaire de planifier des réunions. Cette question est au cœur de mes réflexions depuis 20 ans, bien avant que je ne m’intéresse aux réunions : dans le monde de l’ordonnancement, puis dans le monde de l’allocation de ressources. La recherche d’un ordonnancement optimal ou d’une allocation de ressource optimale est au cœur de la recherche opérationnelle, mon activité principale à l’époque où je travaillais au e-Lab. La question se pose dès que les données que l’on fournit à l’algorithme d’optimisation sont fausses car elles représentent une photographie du problème à un instant donné, alors que le monde change continument. Mes expériences de l’époque montraient qu’avant de rentrer dans une phase chaotique dans laquelle la planification devient inutile, il existe une zone dans laquelle la meilleure stratégie est une planification globale à priori, suivi de réparations adaptatives en temps réel (le domaine des algorithmes stochastiques et de l’on-line optimization).

J’ai eu la chance de participer à FoE (Frontiers of Engineering) à Chantilly la semaine dernière.  J’ai été frappé par l’analogie avec les problèmes de gestion du trafic. Dans un exposé brillant, Serge Hoogendoorn nous a  expliqué « qu’il y a des sérieuses limites à l’auto-organisation du trafic dans un réseau lorsque la charge augmente ».  Ceci est illustré par la figure ci-jointe (« The fundamental trafic diagram »).  Il faut réguler le trafic dans le réseau routier lorsqu’il y a trop de voitures, tout comme il faut réguler les communications dans une entreprise, lorsqu’il y a trop de participants qui ont trop de choses à se dire. L’auto-organisation, qui fonctionne parfaitement dans une petite structure telle qu’une start-up, devient moins efficace quand la taille de l’entreprise augmente, et surtout lorsque le taux de charge augmente. C’est dans ce cas que le réseau des réunions organisées devient utile.

Tout cela n’est qu’une question de viscosité ! Il faut penser à l’information qui circule comme un fluide visqueux. Plus précisément on peut distinguer deux formes de viscosité :
  • (v1) le temps de set-up évoqué précédemment. Il s’agit à la fois d’un temps de déplacement (le temps pour se rendre au même endroit) et d’un temps de « synchronisation contextuelle », nécessaire avant que l’échange puisse commencer. J’ai déjà parlé plusieurs fois dans ce blog de l’intérêt des outils 2.0 pour réduire ce setup. Cette forme de viscosité explique pourquoi il est difficile de programmer des réunions plus courtes qu’une demi-heure (50% setup et 50% « utile ») – malgré les différentes expériences de réunions très courtes.
  • (v2) le temps d’organisation du meeting : il faut du temps pour planifier, re-planifier dynamiquement si besoin et prévenir les participants. Il y  a de nombreux facteurs qui contribuent à ce type de viscosité : le temps de préparation (chacun sait qu’une réunion est plus efficace si elle est préparée, même si l’on peut quelques fois douter que cette règle que l’on trouve dans les guides de conduite de réunion soit respectée), les conflits avec les autres types d’activités, les effets de chaînes lorsqu’on re-planifie dynamiquement. Il n’est pas difficile de comprendre que cette viscosité augmente avec la taille de l’entreprise et avec le taux de charge des participants.
J’ai cherché pendant quelque temps à démontrer ce que j’avais constaté dans les simulations précédemment évoquées : montrer qu’un calendrier de réunions planifiées était un avantage dans une situation complexe (en fonction du nombre de participants et du taux de charge). Mais ce n’est pas une propriété structurelle ! Sans viscosité, une approche dynamique serait par construction plus efficace. Ce n’est que parce qu’il y a cette viscosité que le « Garbage Can Decision Model » émerge, faute de mieux.

Comme toujours, c’est une question d’échelle. Je lis et j’écoute Jason Fried avec plaisir et intérêt, mais sa vision du travail et de l’entreprise est marquée par une expérience de travaille à petite échelle.  Le travail en petite équipe, c’est la force des liens forts :) Je vous ai commenté dans un billet précédent ce que les sociologues appellent les organisation ambidextres :  la combinaison des équipes (liens forts, les personnes que l’on voit tout le temps) et les communautés (liens faibles, les personnes que l’on voit moins fréquemment –cf. cette excellent  vidéo sur « the strength of weak ties »). Le travail de type « liens forts » est celui que Jason Fried apprécie, c’est le mode de travail des startups. Dans une équipe, le set-up est réduit au minimum : co-localisation, donc pas de déplacement et très peu de set-up contextuel, car en vivant de façon proche, chacun sait ce qui est dans le « top of mind » de l’autre.

Ce concept de viscosité permet d’ailleurs de comprendre encore plus facilement l’intérêt des stand-up meetings :  l’organisation systématique du rendez-vous court du matin, dans lequel chacun fait un point sur ses objectifs de la journée, réduit la viscosité v1 et v2 (le meeting réduit v1 en partageant les contexte et réduit v2 avec un modèle simple et régulier qui crée un rituel et une habitude). Le stand-up meeting est bien un facteur de sérendipité : il permet aux membres de l’équipe de se synchroniser. Le coté « stand-up » est là pour assurer que la réunion reste courte et efficace. Plus généralement, l’organisation lean du travail est tournée vers la réduction de cette même viscosité.

3. Abstraction :  force et faiblesse


Dans une petite équipe ou dans l’entreprise idéale de Jason Fried, les sujets sont abordés en profondeur, avec des faits,  par quelques personnes compétentes. Dans l’entreprise réelle de grande taille, l’information doit circuler largement, horizontalement et verticalement. Les flux sont trop nombreux par rapport au temps disponible, un sujet qui est au cœur de mon dernier livre.

Lorsque les tuyaux sont trop petits, il est naturel – surtout si l’on travaille dans les télécom :) – d’utiliser la compression. Comprimer c’est essayer de dire les mêmes choses avec moins d’information, c'est-à-dire en utilisant des « synthèses », des « résumés », des abstractions. Notons que l’abstraction est une compression dans le sens  de  Kolmogorov ou Shannon, c'est-à-dire une représentation qui doit permettre de reconstruire la réalité du message original. L’utilisation de la compression est universelle dans les grandes entreprises :
  • Dans les présentations Powerpoint,
  • Dans les processus de décision des managers, qui évalue la réalité au moyen de KPI et autre scorecards,
  • Dans l’éducation, où l’on favorise l’apprentissage et la réflexion sur les concepts, plutôt que l’observation et l’analyse des faits.
Mais dans un monde complexe, il faut se méfier à la fois de l’abstraction (cf. Mintzberg et son livre « Managing ») et du « narrative fallacy » (cf. Taleb, le souhait de reconnaitre des histoires, là où il n’y a que des séquences aléatoires … ou complexes).  Je n’y reviens pas, c’est un des leitmotivs de ce blog.
Pourtant, l’utilisation de l’abstraction est une adaptation nécessaire pour les managers, en fonction du nombre de sujets qu’ils ont à traiter, qui augmente avec la taille de leur équipe.  On comprend facilement que plus il y a de sujets à traiter, plus il faut les compresser, c’est-à-dire les traiter « à un haut niveau », « de 10 000 pieds », etc. Je vous propose une petite quantification simpliste de ce problème. 
Si l’on désigne par :
  • scope , le périmètre du manager en termes de sujets qu’il supervise et sur lequel il est amené  à prendre des décision,
  • frequency, la fréquence avec laquelle il évalue ces sujets (une fois par jour, ou une fois par semaine ou une fois par mois, etc.),
  • compression,  le facteur de compression de l’information utilisé, au moyen de l’abstraction, pour traiter le sujet (est-ce le célèbre mémo d’une page, un PPT de 3 page ou de 30 pages, un tableau de bord avec de KPI, un ensemble de données d’usage, etc.)
On aboutit à l’équation suivante qui exprime le fait que les journées n’ont que 24h et qu’il n’y a pas de sur-homme/sur-femme (la contrainte de temps s’applique  à tous) , autrement dit que le temps disponible pour ingérer des données est le même pour chaque manager :

Scope x Frequency  x Compression =  Constant

Cette équation conduit les managers « qui montent en responsabilité dans l’organisation » à s’adapter de deux façons :
  • réduire la fréquence (et par conséquent augmenter la latence de leur décision),
  • augmenter la compression pour pouvoir traiter plus de sujets.
C’est illustré par la figure suivante dans laquelle chaque rond représente un sujet, sa couleur indiquant le produit fréquence x abstraction. Les ronds foncés sont ceux qui sont traités fréquemment et en profondeur, les ronds clairs sont traités soit plus rarement soit de façon plus abstraite. L’équation signifie que la quantité de couleur est constante : s’il y a beaucoup de ronds pour un manager, ils sont forcément plus clairs.  


La complexité croissante de l’entreprise comme de son environnement  rend ces deux stratégies inefficaces :
  • La fréquence doit rester élevée, pour que les problèmes soient traités rapidement et les décisions prises non moins rapidement, afin que l’entreprise s’adapte constamment à un environnement changeant.
  • On ne peut pas prendre des bonnes décisions si l’on compresse trop, c’est l’argument de Mintzberg, ou celui du «genchi genbutsu ».
La conséquence de la complexité du monde est que le « scope » des managers doit rester constant en utilisant :
  1. une vraie délégation,
  2. une organisation en réseau.
Autrement dit, nous venons de retrouver par l’abstraction (le paradoxe est volontaire) ce qu’enseigne la pratique de l’entreprise libérée. C’est illustré, grossièrement, par la partie droite de la figure précédente. L’organisation en cercles concentriques illustre une vraie délégation à des équipes autonomes, une distribution des responsabilités qui respecte la charge constante, de telle sorte que la fréquence reste élevée pour tous les sujets,  afin de garantir la réactivité.

dimanche, septembre 22, 2013

Esquisse d'une "Entreprise 3.0"


Le billet de ce week-end est une petite synthèse après de nombreuses lectures sur le sujet de l’entreprise de demain, qui dessinent un portrait assez homogène. Ce sera donc plus une synthèse qu’une analyse, et mes lecteurs soucieux d’originalité pourront attendre le prochain billet.

Choisir le terme d’  « entreprise 3.0 » est une facilité, ce dont je vais parler c’est d’une nouvelle vision du travail, une nouvelle vision du management, une nouvelle vision de la valeur et une nouvelle vision de la communication. Chaque sujet mériterait un chapitre voire un livre, et je vais y consacrer une courte section, donc il s’agit plutôt de constater que ces « nouvelles » approches se combinent et se renforcent, pour produire une entreprise de nouvelle génération (3.0 étant un clin d’œil à mon livre sur la « lean entreprise 2.0 »).  Le terme de « nouveau » est lui aussi un abus de langage, mais je constate un frémissement, le début d’une convergence dans la blogosphère et dans la littérature sur le management. Autrement dit, tout le monde se met à raconter un peu la même chose sous des angles différents, et je vais contribuer à cette « conversation ».

1. Une nouvelle vision du travail

La convergence des points de vue m’est apparue cet été, en lisant « Humain – une enquête philosophique sur ces révolutions qui changent nos vies », pour préparer un article sur le transhumanisme. Dans ce livre, Richard Sennett donne une interview sur l’évolution du travail. On y retrouver une critique du travail Taylorisé qui n’est pas sans rappeler François Dupuy : « … succession de missions multiples à brèves durées, sans lien entre elles, …, injonction permanente d’être flexible, adaptable … le travail n’est plus ce qu’il était ». Face à cette démotivation, il faut « retrouver ce que travailler veut dire ». Teresa Amabile, dans son livre « The Progress Principle », part également du désengagement croissant des salariés pour introduire le besoin impérieux de redonner du sens au travail et la capacité pour chacun à progresser dans ce travail.

Le travail évolue, et cette évolution ne va faire que s’accélérer, face à la complexité croissante du monde (le sujet de mon livre et de ce blog), face à l’automatisation et face à l’accélération du changement. Sur l’arrivée de la robotisation et de l’automatisation, il faut lire « Race against the machine – how the digital revolution is accelerating innovation, driving productivity and irreversibly transforming employment and the economy” par Erik Brynjolfsson et Andrew McAfee. Tout ce qui va suivre sur la nécessaire transformation des modes de travail est rendu plus critique par la transformation progressive des activités depuis la production et la gestion des transactions vers l’innovation et la gestion des interactions. Je vous recommande également l’article de Kevin Kelly dans Wired, «  Better than human - Imagine that 7 out of 10 working Americans got fired tomorrow. What would they all do.

Pour retrouver le sens du travail, le consensus se forme autour des valeurs du “Toyota Way”. Je ne parle pas des principes techniques du lean management, mais bien des valeurs : permettre à chaque collaborateur de se réaliser, développer le rôle social du travail et de l’entreprise, centrer le rôle du management sur l’apprentissage et le développement des compétences. La référence à Toyota est souvent absente, ce qui est logique car ce sont des valeurs universelles, et plus anciennes que la définition des 14 principes. On retrouve ces valeurs dans celles du GroupeBouygues. Ce qui est nouveau, et qui est pour moi une contribution essentielle du lean management, c’est la méthode pour réaliser cette ambition, fondée sur l’expérience (learn by doing), le travail en équipe, l’autonomie - et donc l’abandon de la séparation penser/faire du Taylorisme.

Un autre consensus qui émerge depuis quelques années est l’importance du bien-être au travail, non pas pour des raisons humanistes, mais pour augmenter l’efficacité. Ici aussi, il y a une dimension éternelle dans ces propos (on travaille mieux si l’on est épanoui, et surtout si le stress est réduit) mais aussi une pertinence qui ne fait que croitre au 21e siècle, avec l’augmentation de la complexité. La complexité exige collaboration et créativité, deux choses qui à leur tour ne se développent qu’avec des salariés épanouis. Pour reprendre les termes de Teresa Amabile, il faut développer le « Inner Work Life », redonner du sens et du plaisir dans l’exercice du travail quotidien. Je vous renvoie également aux principes du « slow management ». Il est intéressant de noter que ceci nous ramène rapidement au principe de « quality first » du lean. Promouvoir le bien-être passe par le fait de s’organiser pour bien faire son travail, du premier coup.


2. Une nouvelle définition du management et du manager


Tout ce que j’écris dans ce billet pourrait être illustré avec une bibliographie de 20 pages, par construction puisque je cherche ce qui fait consensus. Une bonne façon de comprendre comment construire une organisation pour ce «nouveau travail » est de repartir de la motivation intrinsèque telle que proposée par Daniel Pink :
  1. autonomie, chaque salarié dispose d’une marge de manœuvre pour réaliser ce qui lui est demandé,
  2. mastery, ou sens du progrès tel que défini dans « The Progress Principle »,
  3. purpose, ou appropriation de la vision de l’entreprise, pour donner à chacun un sens collectif à son travail individuel.

Ces trois principes sont une clé de lecture pour les différentes propositions d’une nouvelle forme de management, pour obtenir ce qu’Isaac Getz appelle une entreprise libérée. Je suis en train de terminer le livre d’Isaac Getz et Brian Carney, « Liberté et Cie » , que je recommande absolument (tout comme Cecil Dijoux).  Je m’étais même dit que j’en ferai un résumé, mais une fois de plus, un résumé ne rendrait pas hommage au livre, puisque les idées sont connues de tous, tandis que les preuves sont passionnantes, circonstanciées et merveilleusement illustrées. Les principes du « nouveau management » de l’entreprise libérée sont simples :
  • Cesser de parler et commencer à écouter. Retourner sur le « gemba », pourrait-on dire dans la terminologie lean.
  • Partager ouvertement et activement sa vision de l’entreprise en permettant aux salariés de se l’approprier
  • Arrêter d’essayer de motiver les salariés. Appliquer Daniel Pink : passer de la motivation extrinsèque à la motivation intrinsèque, donc manager l’émergence en jardinant.
  • Rester vigilant. Le manager est le garant de la culture.

Le message principal, je l’ai dit plus haut, n’est pas un message humaniste, mais un discours d’efficacité : les entreprises dans lesquelles les salariés sont libres (autonomes, auto-motivés) sont plus compétitives.
Cette nouvelle posture du management conduit à des nouvelles formes d’organisation, dont j’ai parlé souvent dans ce blog : distribuées, autonomes, en réseau. Le modèle de l’entreprise en réseau est plus robuste, plus résilient et plus adaptatif, mais il exige un partage et une circulation de la vision, comme le rappelle Isaac Getz. L’autonomie sans vision commune n’engendre que le chaos. C’est d’ailleurs un des principes des systèmes complexes : distribuer le contrôle nécessite également que la finalité du système global soit partagée au niveau de chaque sous-système composant (dans le jargon informatique, on ajoute « de façon déclarative et non opérationnelle », pour que chaque composant puisse adapter sa réaction à sa vision locale de l’environnement).  La nouvelle organisation est donc une combinaison de liens faibles et de liens forts, un réseau d’équipes, ce qui est très bien théorisé dans l’approche BetaCodex. Le réseau est la colonne vertébrale qui donne la souplesse et l’adaptation au changement permanent. En revanche, dès qu’il s’agit d’une grande entreprise, on retrouve forcément une structure fractale (des systèmes et des sous-systèmes, avec une forme d’abstraction : des employés dont le rôle est de représenter un sous-système dans le système supérieur, ce qui est illustré dans l’approche sociocratique). C’est un point un peu technique (j’y reviendrai une autre fois) mais essentiel car la bonne propriété de l’organisation hiérarchique, c’est sa structure fractale qui lui permet ce «passage à l’échelle », une qualité qu’il faut donc reproduire lorsqu’on passe de l’arbre (hiérarchie) au graphe (réseau).

Pour que ce type d’organisation fonctionne, il lui faut une culture particulière, dont on trouve un excellent résumé dans « The Great Workplace » de M. Burchell et J. Robin, un exemple parmi de nombreux ouvrages. Les valeurs essentielles sont : la confiance,  la reconnaissance,  le  respect et le partage du sens. J’aurai pu tout aussi bien citer « Liberté et Cie », tant les exemples d’entreprises libérées s’appuient sur cette même culture. Kenneth Arrow nous a appris que la confiance est essentielle pour toutes les transactions, mais ce besoin de confiance est proportionnel à la complexité des activités. La confiance est ce qui permet de coopérer sur des tâches complexes sans avoir besoin de contractualiser les contributions. Le besoin de reconnaissance est également un produit de la complexité et de l’échelle des organisations (pour l’artisan, la satisfaction du client est l’unique forme nécessaire de reconnaissance). Le respect est la condition primaire de l’autonomie, de la « libération » des collaborateurs. 

3. Une nouvelle vision de la valeur


La valeur est co-construite avec le client. Cette idée ne fait que se renforcer depuis 10 ans, par exemple depuis la sortie de « The Future of Competition – Co-creating unique value with customers » de C.K. Prahalad et V. Ramaswami en 2004. J’ai abondamment utilisé ce livre dans mon propre livre “le SI démystifié”, parce qu’il explique de façon lumineuse les différentes étapes de la transformation de la chaine de valeur. La chaîne de valeur de Michael Porter a laissé place à un réseau, dont le client est un centre. La stratégie, le système d’information et le marketing de l’entreprise sont bousculés par ce changement de centre, l’ouverture (pour collaborer avec les autres acteurs du réseau) et la flexibilité (pour s’adapter aux demandes du client) deviennent tout simplement obligatoires. C’est ce qui fait dire à François Dupuy que le « triomphe du client » est une source de complexité … qui doit être traitée par toute l’entreprise, en mode distribué, et non pas considérée comme une spécialité. L’entreprise 3.0 se construit autour de l’écoute de son client.
Cette création de valeur s’exprime en premier lieu autour de l’expérience du client, mais elle s’exprime également de façon collective et à plus long terme, en fonction de l’impact sur la société. C’est toute l’idée du « shared value » de Michael Porter et Mark Kramer. La systémique s’est invitée dans la chaine de valeur, il faut penser boucle,  écosystème, rétro-action … pour construire un développement durable de l’entreprise.

Cette notion d’écosystème n’est pas simplement un terme à la mode, ou la qualification d’une chaîne qui se transformerait en réseau. Elle représente le passage d’une vision statique (des boites et des flèches) à une vision dynamique (chaque acteur est un processus qui évolue comme son environnement). L’écosystème de création de valeur ou de production de service emprunte à l’écologie les concepts de systèmes complexes et d’adaptation continue. C’est parce qu’il y a un mouvement permanent des rapports de force et d’opportunité que je m’intéresse particulièrement à la théorie des jeux. L’importance de l’écosystème en tant que « boite à lego » explique le retour en force de la culture produit. Qu’il s’agisse d’objets matériels ou de services, penser écosystème et recomposition, penser expérience client conduit naturellement à remettre en valeur le principe du produit, car c’est le produit qui combine l’expérience (donc la satisfaction) du client avec la liberté de celui-ci de recomposer cette expérience. Le 21e siècle conduit naturellement à remettre en valeur la conception de produits, ce qui s’accorde, bien sûr, parfaitement avec l’approche du lean management.

Le concept pivot qui articule le développement d’un écosystème est celui de plateforme, un autre mot dont la fréquence d’utilisation ne fait que croitre (avec les concepts associés d’exposition de service et d’interfaces). On pense ici au livre fort distrayant de Jeff Jarvis « What Would Google Do ? » ou plus récemment celui de N.Colin et H. Verdier « L’Age de la multitude ». La plateforme est l’outil pour construire une collaboration émergente entre les partenaires d’un écosystème. Une stratégie dans un « écosystème 3.0  de création de valeur », c’est un peu de se penser en tant que plateforme, et beaucoup savoir profiter des plateformes des autres. Dans un environnement changeant, cela demande de transformer sa stratégie « top-down » en approche « bottom-up » de « potentiel de situation » (comme toujours, je fais ici référence à Francois Jullien).


4. Une nouvelle vision de la communication

La communication n’est plus vue aujourd’hui comme un simple transfert d’information. C’est avant tout un élément de relation entre deux et plusieurs personnes, le plus souvent un élément de synchronicité, parce que la communication suppose l’échange et l’appropriation et, pour finir, un transfert d’information. La communication  est ce qui construit le réseau dont nous avons parlé, constitué d’un maillage d’équipes (liens forts, communication constante) et de communautés (liens faibles, communication éparse).
Ceci remet en cause l’idée du « knowledge worker » de Peter Drucker à laquelle je me suis souvent référé dans ce blog. Même si ce concept reste pertinent, il est dangereux car il masque le fait que la création de valeur vient plus de l’interaction que de la connaissance. De plus, même si les spécialistes de la connaissance lui donne un sens large qui inclut de nombreuses formes (tacite, implicite, corporelle, …), il est important de ne pas perdre de vue l’importance des pratiques, des attitudes et des émotions dans l’efficacité du comportement collectif.

La gestion de la communication est indissociable de la gestion du temps. La forme principale de la communication dans l’entreprise 3.0 est la conversation, en écho à la citation célèbre du ClueTrain Manifesto : « Markets are conversations ». Le fait que la collaboration dans un environnement complexe exige la synchronicité est une des intuitions fondamentale du lean (et pas seulement le takt time). L’agilité vient en premier de la combinaison d’un temps commun et de l’utilisation d’incréments courts, les fameux « petits lots ». L’impact du management de la communication sur la performance de l’entreprise est considérable parce qu’il détermine la construction du réseau et l’allocation du temps de collaboration utile. Et nous savons depuis Clay Shirky que la flexibilité de l’entreprise tient en bonne partie à sa capacité à s’auto-organiser, c'est-à-dire permettre à ce réseau d’évoluer constamment en fonction des besoins de l’environnement.

Si je cherchais à résumer ce qu’est cette nouvelle vision de la « communication 3.0 », je dirais que c’est la combinaison de l’entreprise 2.0, de l’autocontrôle des flux d’information et de cette culture 3.0 décrite un peu plus haut. Autrement dit, le socle de cette nouvelle communication commence avec les outils 2.0 parce qu’ils permettent de casser les goulots d’étranglement des formes plus classiques de communication. C’est ce que j’ai développé dans mon livre « Processus et Entreprise 2.0 », mais si la culture n’évolue pas dans le sens de la confiance, du respect et de la reconnaissance, les outils ne servent à rien. A l’inverse, si les outils sont mal utilisés, on ne fait qu’amplifier le problème de la surcharge informationnelle. Ce problème mérite qu’on s’y arrête, car il conduit à la redondance (rework) et à l’amplification (donc l’incapacité à s’adapter aux « bursts » de l’environnement).
Pour éviter cette surcharge, il faut que chaque salarié du réseau s’autodiscipline, en tant que « knowledge worker » qui communique avec les autres acteurs de son réseau, dans une approche systémique « lean ». Il est clair que la régulation extrinsèque ou top-down, par les règles, ne fonctionne pas (ce qui ne veut pas dire que quelques règles soient inutiles).  Au contraire, on retrouve deux idées clés développées précédemment : le principe de localité  dans une structure « scale-free » (fractale, multi-échelle) et le besoin de motivation intrinsèque. Le premier point est intéressant car c’est une des causes d’échec du déploiement trop global d’outils 2.0. Il faut capitaliser sur ce que nous savons sur la structure des réseaux sociaux performants et reproduire une « structure de petits mondes ».  L’autorégulation, face à un problème de « tragédie des communs », suppose le feedback (ce qui est plus simple au niveau local) et l’appropriation du problème. Mon intuition est que  « l’organisation 3.0 » de l’entreprise libérée est à la fois une solution au problème de l’efficacité du « contrôle » (qui devient distribué) et de la « communication » (qui se libère de flux hiérarchiques inutiles).

Ces quatre sections décrivent quatre aspect de cette « nouvelle vision de l’entreprise » qui s’intersectent et se renforcent. Comme je l’ai dit en introduction, le mot « nouveau » est un abus de langage, ce qui est « nouveau », c’est le niveau de consensus qui monte progressivement autour de besoin de « libérer » les entreprises, de « redonner du sens au travail », de remettre l’homme et son bien-être au cœur des activités créatrices de valeur.





-           











samedi, juillet 27, 2013

Plan à trois ans 2013-2015

Comme tous les 3 ans, je profite de la période de vacances pour mettre à jour mon "plan à 3 ans". La nouvelle version est disponible, elle est fortement centrée sur GTES et sur mon prochain livre, que je compte écrire en 2015 (sortie 2016).

dimanche, juin 09, 2013

SelfLean : l’efficacité systémique individuelle


Ce billet est consacré au « selfLean », l’idée que les principes du lean se déclinent de façon personnelle, et apportent un surcroit d’efficacité, tant individuelle que dans l’action collective. Lorsque je parle de principes, il s’agit à la fois des valeurs et de la philosophie du « lean management » du « Toyota Way » et des « principes actifs systémiques » du lean (pull, muda, kanban, etc.). Bien sûr, le lean est avant tout une approche collective, qui s’applique à une organisation ou une équipe, et sa réduction à l’échelle individuelle est un « petit sujet » : 90% de la puissance du lean management ne s’exprime pas à cette échelle. Mais les 10% restants sont intéressants. Je vais l’illustrer sur quatre exemples :
  • Le « selfKanban » : comment utiliser la puissance du visual management et du kanban (le tableau blanc des méthodes agiles) à titre personnel.
  • Le « selfPull » : maîtriser sa communication vers les autres en fonction de leurs besoins, et non pas du sien.
  • Je ferai une petite digression sur les styles de présentation Powerpoint, parce que je diverge de la pensée unique J
  • Le « selfMuda » : savoir alléger pour accélérer, faire moins de choses pour les faire mieux, en maîtrisant le temps et son propre rythme.

1.  Self Kanban

Je pratique le selfKanban depuis un an, de façon très simple mais avec des résultats très positifs. Au départ, il s’agissait d’une démarche pédagogique : pratiquer et démontrer par l’exemple ce que je souhaitais que mes équipes de développement fassent, en suivant l’excellent exemple de « Lean from the trenches ».
J’ai donc découpé le tableau blanc de mon bureau en trois zones :
  1.  Une petite roadmap avec tous les jalons clés, les événements, etc.
  2.  Le tableau « kanban » proprement dit : avec en ligne les différents domaines dans lesquels j’interviens (projet, management, extérieur,…) et en colonne les différents états (à faire, en cours de réflexion, rédaction du plan/brouillon, rédaction, appropriation, diffusion)
  3. Une pile « problem solving » avec trois états : TODO, à résoudre, à suivre (le plan d’action).

Je remplis le tableau blanc avec des post-its, qui représentent les différents sujets dans leurs états d’avancement. L’application du 5S m’a conduit à formuler la règle que tout dossier (au sens physique = une chemise avec des documents, quelque part dans mon bureau, ou électronique) correspondant à du travail en cours doit être représenté par un post-it.  Je remets à jour le tableau une fois par semaine de façon rapide, et je le fais sérieusement (avec un peu de « Hansei ») une fois par mois. Les bénéfices que j’ai pu observer au bout d’un an sont les suivants :
  • Le tableau m’aide à ne pas en faire trop, puisque je vois d’un seul coup d’œil l’ensemble des sujets en cours. C’est très basique : il n’y a pas assez de place pour mettre trop de post-its, et avec quelques mois d’expérience, on juge rapidement l’état de la charge. La règle des 5S qui me force à visualiser la somme des dossiers contenus dans mes armoires/tiroirs est très efficace. Elle évite les dossiers qui dorment ou qui s’enlisent.
  • Le tableau permet également de lisser le travail suivant les différentes phases, et me rend donc beaucoup plus pertinent dans ma capacité à évaluer la fin du processus, à savoir le moment où une action est terminée. C’est bien sûr la raison principale pour laquelle on recommande aux équipes agiles de tenir un tel tableau, et cela marche aussi à l’échelle individuelle. Par exemple, une des erreurs classiques du « knowledge worker » est de se concentrer sur le temps de production (d’un mémo, d’un Powerpoint, d’une page de code, d’un plan projet, etc.). Le tableau précédent force à contempler les étapes aval de préparation, mais surtout les étapes amont de partage et diffusion. Mon expérience depuis 15 ans est que nous ne passons pas assez de temps sur ces étapes, alors qu’elles conditionnent l’efficacité globale (par définition !). Il y a une double peine : les dates promises (par exemple de sortie d’un rapport) sont fausses (trop optimistes), et, parce que le rapport n’est pas suffisamment discuté – où parce qu’on ne laisse pas assez de temps aux partie prenantes pour le relire et venir en discuter – le rapport n’a pas l’impact escompté.

Pour résumer, on peut dire que le « selfKanban » permet une meilleure adéquation entre ce qu’on fait et ce qu’on dit qu’on fait (il aide à faire moins de promesses), il permet d’être plus précis dans ses prévisions (et donc faire des promesses plus précises) et surtout il aide à conserver en permanence une vision à 360 degrés, à tenir compte des interactions avec les autres.

2. Self Pull

Le selfPull consiste à appliquer la logique du pull à la communication, en particulier en réunion. Autrement dit, au lieu du « push » qui consiste à dire quelque chose dès qu’on le peut ou qu’on le sait, le « pull » consiste à dire les choses au moment où elles correspondent à un besoin d’un autre membre de l’équipe ou de la réunion. C’est en premier lieu un principe d’économie de la parole, que j’ai déjà abordé dans un billet précédent.
Je suis frappé par le nombre de fois où j’entends la remarque : « si quelqu’un ne parle pas en réunion, c’est qu’il ne devrait pas être à la réunion ». C’est surtout une remarque française, et qui est dépendante du secteur d’activité. Plus les processus et les rôles sont clairs, moins on entend cette phrase. Elle n’est pas complètement fausse, dans la mesure où toute communication passe par l’appropriation et la reformulation ; en conséquence, même un participant « récepteur » doit avoir la possibilité, et donc le temps, de s’exprimer. Mais au premier degré, cette formule est une recette pour l’échec des réunions. On provoque, une fois de plus, une « tragédie des biens communs », dans laquelle l’optimisation individuelle du « temps de parole » (la « bande passante » de la réunion)  est au détriment de l’efficacité collective. Le lean et la théorie de l’information se rejoignent pour proposer de ne dire que ce qui est utile au autres (donc ne pas leur répéter ce qu’ils savent déjà) au bon moment. C’est un sujet de méthode collective (organiser une réunion avec un objectif, un agenda et un animateur … cf. Meetings), mais aussi un sujet de culture et de comportement personnel, d’où cette référence au selfLean.
Une partie de ce message correspond au sens commun. Il faut savoir écouter, parler à bon escient, rester synthétique, etc. Une autre partie est vraiment une conséquence d’une vision systémique (maximiser l’efficacité de la réunion en tant que canal de communication), revisitée avec une approche lean (réduire en amont ce qui ne produit pas de valeur en aval). Cette vision systémique se cristallise sur le fait de penser en équipe, pour un objectif commun partagé. Mon intuition est que la pratique du lean doit conduire à une meilleure efficacité en réunion, une fois que chacun peut voir la réunion comme un système de communication.  Je ne participe pas à la vague « anti-réunion », mais je pense que, comme l’email, il s’agit d’un outil mal utilisé et détourné de son objectif. Si les efforts très importants depuis plus de 30 ans pour proposer des méthodes efficaces pour conduire des réunions  n’ont pas les effets positifs escomptés, c’est qu’il existe une dimension culturelle et personnelle.

3. L’idéal du TED Talk

Un des actes courants de communication est la préparation d’une présentation, « de type Powerpoint ».  Dans son petit guide de la conduite du changement, Cecil Dijoux nous inclut un petit résumé de l’idéal courant de la présentation :  une histoire, peu de slides, une photo et une phrase par slide. C’est ce qu’on pourrait résumer par « l’idéal du TED talk ». Comme je l’ai exprimé dans mon billet, je suis un grand supporteur du travail de Cecil Dijoux, que j’ai distribué à mes équipes. Par ailleurs, je suis un fan absolu de TED, qui a significativement amélioré la qualité de mes week-ends. Comme la plupart d’entrevous, je suis dans une admiration totale quand je regarde Elizabeth Gilbert, Brené Brown, Ken Robinson, Daniel Pink, Steven Johnson …
Mais je ne crois pas que le TED talk est l’idéal universel de la présentation en entreprise. Commençons par dire que je ne crois pas non plus que Powerpoint soit un outil épouvantable à éviter. Dans mes livres précédents je me suis plongé sur les travaux de Edward Tufte et d’autres qui ont bien montré les limites et les dangers d’une mauvaise utilisation. Mais, qu’il s’agisse de Powerpoint ou d’un autre, un outil de « slideware » me semble plutôt un bon outil. Lors d’une des formations que j’ai suivies sur ce sujet, on m’a proposé de produire trois choses pour toutes présentation :
  • Un support de slides façon « TED talk » (une image, un slogan)
  • Un autre jeu de slides à mettre sur mon écran, façon pupitreur, avec plus d’informations
  • Une petite note écrite à remettre aux participants, après la présentation.

Il n’y a rien à redire à ce conseil, tant il est juste et pertinent, si ce n’est le fait que je n’ai pas le temps. Pour la plupart d’entre nous, un ensemble de contraintes nous conduisent à communiquer à un rythme qui ne permet pas cette approche qualitative (que j’ai vu fonctionner par ailleurs chez certains de mes amis, pour qui j’ai la plus grande admiration, tel que Philippe Korda). Nous devons donc choisir un mode de production de slides … et je pense que la « théorie unique du TED talk » contient deux erreurs :
  • Cela dépend de qui présente ! Pour être efficace avec une présentation « moderne », il faut une bonne dose de charisme, une bonne résistance au stress, une bonne mémoire. Rien à dire lorsque cela marche (Philippe Korda ou Marc Giget sont deux de mes modèles), mais lorsque cela ne marche pas, il ne reste plus rien. J’ai vu des exemples criants dans mon expérience professionnelle : on admire les photos, on suit tranquillement … et 30 minutes après être sorti, je suis incapable de citer une seule idée du talk auquel je viens d’assister.
  • Cela dépend de qui écoute ! A la fois le type de l’audience et son type de motivation. L’audience TED, dans la salle ou l’internaute, ne représente pas le cas typique dans une entreprise.  Pour des participants qui cherchent à apprendre ou qui veulent des solutions à leurs problèmes, il faut s’appuyer sur la mémoire photographique. Pour des ingénieurs formés à l’analyse, fournir des schémas est une bonne pratique. Et ce n’est pas un problème si chacun ne retient que 10% de ce qui est présenté … ce qui compte, c’est la valeur générée pour le participant par le fragment qu’il s’est approprié. Cela se complique dans l’entreprise, où une partie de l’audience « écoute à un niveau méta », non pas pour assimiler ce qui est dit, mais pour se forger une opinion sur : l’orateur tiendra-t-il sa promesse (livraison à l’heure) ? est-il en contrôle ? est-ce que ce sujet est pertinent ? est-ce qu’il s’appuie sur les bonnes ressources ? etc.
Comme je pressens que cette petite digression va m’apporter des commentaires critiques, je tiens à préciser deux choses. Premièrement, le stress,  le charisme et la mémoire, cela se travaille. Donc oui, une présentation cela se répète, et cela s’optimise par le feedback. Deuxièmement, il y a des principes universels dans les recommandations des « TED talks » : il faut surprendre, il faut trouver des formules et des slogans faciles à mémoriser, il faut raconter une histoire, il faut peu de slides, il faut répéter ce qui est clé, etc.  Mais mon contrepoint, dans une philosophie lean, tient en deux idées : s’adapter à son audience et conserver une bonne dose d’humilité.

4.  SelfMuda

Le dernier exemple de principe lean qui se décline de façon individuelle est que pour être agile, pour être réactif, pour pouvoir accélérer … il faut être « léger ». Donc pour être plus efficace et plus productif, il faut maîtriser sa charge de travail – cf. l’article du New York Times « Relax ! You’ll be more productive »,  et rester dans une zone de charge qui permet d’être flexible.  Le lean donne à la fois la direction (alléger la charge pour être plus réactif) et les outils pour maîtriser le temps et éliminer ce qui n’apporte pas de valeur (le muda). Le « self Muda », c’est l’allègement systématique et continu de son ensemble de tâches quotidiennes pour enlever celles qui n’apportent pas de valeur à ses « clients » dans l’entreprise.

L’outil évident pour contrôler son allègement de charge est l’agenda. La pratique du selfLean enseigne de garder suffisamment de zones libres. Ce n’est pas une idée nouvelle, la plupart des grands patrons la pratique depuis des décennies. Comme je le raconte souvent lors de mes conférences, j’ai compris que ce principe lean s’appliquait à ma propre activité lorsque j’étais DSI, lors d’un déjeuner en 2005 avec Philippe Montagner, PDG de Bouygues Telecom. Remplir son agenda consiste à optimiser sa propre production de valeur, tandis que garder des zones libres consiste à mettre sa valeur au service des autres. Plus on optimise son efficacité propre (avec un taux de charge utile qui s’approche des 100%), plus on augmente la latence de toute action inopinée initiée par une demande d’un personne tierce (toujours notre bonne vieille théorie des files d’attentes –cf. Reinersten).  Le selfLean, c’est accepter de perdre 20% d’efficacité pour en donner 200% aux autres. 

S’alléger ne veut pas dire ne pas anticiper. C’est une des erreurs les plus courantes, de confondre le « pull »/ « JIT » avec le fait de ne plus faire de travail de préparation, d’anticipation. Une fois de plus, je me réfère à François Julien et son livre « Conférence sur l’efficacité » : il faut savoir cultiver son « potentiel de situation ». Le JIT s’applique aux chaines causales, aux dépendances claires formalisées par un processus. Mais l’efficacité et le succès (qui sont indissociables) ne s’appuient pas seulement sur un ensemble fini, déterminé, catalogué de causes. Ils s’obtiennent également en utilisant dans l’instant, de façon réactive, des capacités que l’on développe bien avant, par anticipation. Il faut relire Jeffrey Liker pour comprendre que c’est précisément la philosophie de Toyota. Le kaizen est un outil de développement de compétence, pour enrichir ce « potentiel de situation ». Il s’agit à la fois de compétences métiers, d’apprentissage systémique, et de compétences coopératives. L’essentiel, qui est très bien expliqué dans « Le Management Lean » (achetez-le et offrez-le à vos amis, nous avons enfin un livre de référence en français J), c’est que la pratique du lean développe les compétences qui permettent de s’adapter, à la fois au jour le jour et dans les crises. Je vous recommande également  l’excellente vidéo de Philippe Gabilliet « Le facteur chance ? ».  Dans la tradition de Pasteur – « le hasard sourit aux esprits préparés », la chance dont il parle est exactement le potentiel de situation de François Jullien. Cela se travaille, et c’est précisément un travail d’anticipation, mais pas de prévision.

Le « selfKanban » est un excellent outil pour alléger sa charge comme cela a été dit plus tôt. Mais si l’on y réfléchit, cette recherche de la suppression des tâches qui n’apporte pas de valeur peut s’appliquer dans des directions multiples. Dans la pratique du courriel, on retrouve naturellement :
  • Qu’il est dommage d’avoir à nettoyer des messages périssables qui n’ont pas de raison à être conserver, et c’est pour cela qu’il faut préférer l’instant messaging,
  • Qu’il est dommage d’envoyer en push un message à un destinataire qui n’a pas le temps de le lire. On retrouve ici la thèse du LEMM (lean email management) que j’ai déjà évoquée.
  • Qu’il est dommage d’avoir à classer les documents que l’on garde « comme référence », et qu’il faut préférer l’auto-organisation des blogs et outils de partage communautaire. L’auto-organisation en « folksonomy » est un atout fondamental des plateformes 2.0. Conserver l’email est une perte monumentale d’énergie par réplication. Et croire que le « search » est la solution (je ne range rien mais je retrouve tout par mot clé) ignore l’importance fondamentale de la sérendipité (retrouver ce qu’on ne cherche pas). 80% de l’innovation vient de tisser un lien entre deux choses, et le rangement par catégorie est ce qui permet de trouver des liens entre des choses apparemment sans rapport.
Comme dans le cas des réunions plus tôt, ceci n’est pas une critique de l’email, mais bien une invitation à visiter l’efficacité des outils à travers une approche systémique et un ensemble de principes proposés par le lean.











lundi, avril 01, 2013

Entretien avec Tim Equysse, le candidat qui part battu d’avance


J’ai eu l’opportunité de rencontrer Timothée Equysse lors de la conférence CASPI 2013 à Marseille. CASPI (Conférence sur l’Application de la Systémique aux Problèmes Insolubles)  est une conférence peu connue et quelque peu ésotérique sur les systèmes complexes qui rassemble avant tout des chercheurs français mais également quelques européens. L’intérêt de cette conférence, qui ressemble plus à un workshop, est d’attirer des participants de tous les horizons, y compris des acteurs du monde politique.


Tim Equysse est un conseiller général d’Ile-de-France qui est un avide lecteur de Nassim Taleb (Antifragile), de Acemoblu & Robison (Why Nations Fail) ou encore de Brynnjolfsson & Mc Afee (The Race Against the Machines). Ces trois livres ont certainement nourri ma réflexion politique ces derniers mois et nous avons rapidement sympathisé. Il a fait sienne la remarque de Nassim Taleb : « the central problem we face with top-down tampering with political systems … » et prône une action « émergente » sur les causes profondes plutôt que « volontaire »  et « top down » … sur les symptômes. J’ai apprécié son approche qui relève du « jardinage », mais je lui ai fait remarquer que ses propositions avaient peu de chance de plaire aux électeurs. Sa réponse est qu’il cherche à éduquer, face à des choix difficiles, plutôt que de convaincre. Tim s’inscrit dans la ligne de François Bayrou, mais plutôt que de rassembler « à droite et à gauche », ses dix propositions sont de nature à faire fuir les électeurs de droite comme de gauche.

Voici un petit résumé de son programme, avec mes propres termes systémiques sur le discours de Timothée, qui est plus politique et plus structuré que ce que j’en rapporte (Tim est diplômé du Master de Systèmique Complexe Appliquée aux Territoires de l’université de Toulouse avant de faire l’ENA – Promotion Hobbes).
  1. Dans une approche lean qui favorise le lead time et les petits lots, Tim propose de fluidifier le marché du travail, d’une part en facilitant grandement l’embauche et le licenciement et, d’autre part, en changeant la granularité pour faciliter les tâches de courtes durées et à charge partielle (quart de temps, mi-temps, etc.). Le marché du travail doit permettre de favoriser « le mode projet » dans lequel beaucoup d’individus gravitent autour des entreprises avec un ou plusieurs contrats, avec un modèle hybride d’auto-entreprenariat et de portage salarial.
  2. Un des principes systémiques est l’adaptation à l’environnement, c’est pourquoi Tim Equysse propose de réduire les salaires en les compensant par une réduction du coût de la vie pour les besoins élémentaires. « Le Monde est plus grand que la France, c’est à nous de s’adapter et pas l’inverse ». Son idée est de réduire progressivement le SMIC au fur et à mesure que les actions de l’état pour réduire le coût de ces fonctions primaires (logement, alimentation,  transport et chauffage, santé, éducation) sont effectives.
  3. Tim est un adepte de l’homéostasie, c’est pourquoi il cherche à progresser par petits déplacements, en constatant les effets avant de poursuivre, ou non, la modification. Par exemple, il souhaite supprimer la fiscalité qui pèse sur le travail (pour remettre la France dans un contexte compétitif au plan mondial). Son approche consiste à supprimer de façon progressive les taxes/impôts/prélèvements qui sont attachés aux salaires, tant que le taux de chômage est trop important et que les balances de la France sont déséquilibrées. Il ne sait pas jusqu’où il faut aller et ne prétend pas le savoir.
  4. Sa vision systémique le conduit à s’intéresser aux flux de valeur ajoutée et à prôner une taxation finale qui ne décourage pas plus la création de valeur sur le sol français que celle qui a lieu à l’étranger. Cela conduit à une « TVA sociale » qui rappelle certaines propositions faites par les deux camps, mais qui va plus loin. Non seulement cette taxation inclut une taxe carbone payée par les consommateurs pour favoriser l’économie locale, mais elle renforce la segmentation entre usages de nécessité et usages de confort, en reprenant le concept de panier énergétique du gouvernement socialiste actuel.
  5. Tim est l’inventeur du concept de « bouclier fiscal dynamique » dont le principe est de limiter les prélèvements et impôts à un pourcentage qui est égal à l’âge du contribuable (plafonné à 65 ans). Cette asymétrie a pour but de favoriser la création de valeur chez les plus jeunes et d’encourager la solidarité des plus âgés, qui sont par construction plus responsables de l’état pitoyable de notre dette nationale. Lorsque je lui ai fait remarquer qu’il combinait l’impopularité du concept de « bouclier fiscal » avec la provocation d’un discours qui remet la génération « sénior » face à ses responsabilités, il m’a fait remarquer « qu’au moins, il serait populaire auprès des footballers ».  
  6. Le mémoire de Master de Tim portait sur la cybernétique et les mécanismes de contrôle asservis, il en a conservé un goût pour la régulation auto-adaptative. Sa proposition est d’imposer un (faible) taux de réduction des dépenses de l’état en fonction de la taille de la dette, au-delà de ce qui est raisonnable. A 80% du PNB, une réduction de 2% par an est demandée, à 100% on passe à 4%. Cela rappelle le « fiscal cliff » américain, mais c’est un mécanisme continu et plus doux, mais qui joue sur les effets de composition. En exigeant des efforts continus de réduction de quelques pourcents, on évite les « coups de hache » du modèle américain. L’état est libre de jouer sur les recettes pour s’adapter à la conjoncture, mais un mécanisme constitutionnel encadre ses dépenses.
  7. Timothée Equysse est persuadé que le coût de l’énergie est une variable systémique clé pour permettre à l’écosystème industriel français de regagner en compétitivité. Ses positions en faveur de l’énergie nucléaire et de la prospection des gaz de roche-mère n’ont pas été appréciées pendant la conférence. Tim n’est pas un « conservateur énergétique », il prône une réduction de la consommation et l’adaptation progressive à la raréfaction programmée (à long terme) des énergies fossiles, mais il souhaite que cette adaptation soit financée par des modèles vertueux au-dessus d’une énergie produite à un coût compétitif par rapport à la scène internationale.
  8. Pour ce qui est des retraites, Tim a été très impressionné par Philippe Aghion et le modèle Suedois. Il est possible de construire un modèle équilibré qui s’appuie sur la flexibilité. Tim avait proposé une équation qui résout le problème, mais je n’ai pas eu la place de la noter dans la marge de mon cahier. On retrouvait un principe de retraite à points, avec un minimum garanti et une valeur dynamique du point qui reflète la santé de l’économie.  Tim a commencé par rappeler que les retraites devaient baisser, mais que la combinaison d’une activité rémunérée et d’une retraite fonctionnait très bien dans de nombreux pays.
  9. Il s’inspire également du modèle Suédois pour proposer un plan de compétitivité numérique qui est beaucoup moins timoré que ce qu’on proposé les différents gouvernements ces dix dernières années. Il veut garantir à tous les citoyens une infrastructure numérique en termes de réseaux, données et moyens de calcul. La Suède a subventionné l’achat des PC par les citoyens pour augmenter la pénétration de l’économie numérique. La Corée soutient son industrie et ses opérateurs avec des réglementations et des conditions qui favorisent l’investissement et le développement. Tim souhaite que l’état investisse dans des infrastructures pour que chacun, citoyen ou entrepreneur, ait accès à la fabrique numérique (y compris l’accès aux données publiques) qui nous permette d’être dans le peloton de tête dans la course à l’innovation numérique.
  10. Ce qui m’a le plus intéressé dans l’exposé de Tim lors de la session de CASPI (il intervenait dans la session du 22 Février intitulée « Le déclin est-il une spirale inéluctable ? ») est précisément son analyse sur les causes profondes de notre déclin. Il est parti d’une chaine causale fort simple :  valeurs (a sens de la  culture) > éducation > connaissance > entreprenariat > valeur (au sens financier). Il en a déduit des « mesures de jardinage » pour travailler sur nos causes profondes, pour remettre l’éducation classique et le savoir à l’honneur. Il a beaucoup insisté sur ce point « Un pays dans lequel les parents d’élève insultent, voire frappent, les enseignants est gravement malade, et très mal disposé à jouer un rôle proéminent dans 50 ans ». Certaines de ses propositions sont iconoclastes, comme celle de faire de l’anglais la seconde langue officielle de la France. Il nous a démontré que les pays de l’Europe du Nord qui ont plus ou moins suivi cette voie en ont tiré un véritable avantage. Tim propose également une intensification des dépenses de l’état en recherche fondamentale. Sa position est que le rôle de l’état n’est pas l’innovation mais le développement du savoir et des connaissances.


Après la session, nous avons discuté autour d’un café et je lui ai demandé si son insistance sur la taxe carbone était liée à la menace du réchauffement climatique. Sa réponse m’a surprit, pour lui le réchauffement climatique est un défi important du 21e siècle, mais ce n’est que le deuxième, et les conditions d’action auront changé lorsque l’ensemble du monde s’y attaquera sérieusement. « Il est clair que l’humanité va devoir affronter le réchauffement climatique, précisément parce qu’il reste encore assez d’énergie fossile à bas prix, mais elle le fera avec un contexte technico-économique que nous ne connaissons pas encore ». Le premier grand défi est l’adaptation au changement radical de la nature du travail et de sa distribution dans le monde. « Nous ne voyons que la première phase, qui est liée à l’existence de plusieurs milliards d’humains qui sont éduqués, on envie d’apprendre et de sont prêts à travailler avec un effort soutenu».  Dès qu’on voyage dans le monde, on est frappé par ces pays qui ont investi massivement dans l’éducation il y a quelques décennies et qui commence à en tirer les bénéfices. Mais la deuxième phase se prépare, celle de l’automatisation massive du travail, sous toutes ses formes, telle qu’elle est décrite dans « The Race Against the Machines  ».  Même si nous ne sommes pas encore dans le monde de « Real Humans », il faut commencer à réfléchir à ce qui va se passer. La révolution NBIC est en route, elle va transformer notre vie au 21e siècle plus profondément que nous ne sommes capables de le prévoir.

Dans cette redistribution globale et massive des tâches et du travail, la solidarité est une valeur fondamentale. Sans cette solidarité, les décennies qui viennent vont mettre à mal le tissu social et mettre en tension nos sociétés occidentales. Mais comme l’explique Tim, « la solidarité n’est pas la confiscation de l’initiative, la boucle de l’entreprenariat et de l’initiative personnelle reste vitale ». C’est la grande leçon de « Why Nations Fail », et c’est une leçon systémique : les nations qui réussissent d’un point de vue économique s’appuie sur la protection des boucles positives initiative/récompense à l’échelle globale, pour chaque citoyen, ce que les auteurs appellent « inclusive economy ». Il faut cultiver « les petites fleurs » de la création de valeur, et surtout ne pas taxer l’espoir. Les « taxes symboles » qui stigmatisent la réussite ont un effet négatif sur tout ceux qui rêvent un jour de cette réussite, « et ils sont bien plus nombreux que les vrais millionnaires ».  « Il ne faut pas instituer la jalousie en vertu civique ». Si l’égalité en droit et en dignité de notre de devise nationale se transforme en revendication de confiscation, l’esprit d’initiative et d’entreprenariat sera inexorablement mis à mal. C’est la fraternité qui nous permettra de traverser la révolution profonde du travail que le 21e siècle nous réserve.

Tim s’est appuyé pendant sa présentation sur les six « killer apps de la prospérité » de Nial Ferguson. C’est ce qui permet de comprendre pourquoi les valeurs (« work ethic » : le goût de l’effort et du travail, éducation, valorisation du savoir) sont déterminantes pour la réussite des sociétés.  L’événement majeur de ce début de siècle est la fin du « great divide » :  le reste du monde a adopté les « killer apps » de la prospérité occidentale, au moment ou nous commençons à oublier les valeurs de nos ancêtres. Je vous livre sa conclusion que je partage :  lisez « Why Nations Fail » et regardez Nial Ferguson sur TED !