dimanche, juillet 19, 2020

L’approche lean pour la transformation digitale


 

1. Introduction

Mon quatrième livre chez Dunod, « L’approche lean pour la transformation digitale – Du client au code et du code au client » vient de sortir. Dans le monde numérique, l’idée importe peu, c’est avant tout son exécution qui compte. Ce qui caractérise une entreprise innovante, c’est sa compétence logicielle, c’est sa rapidité dans l’exécution, et sa capacité à mettre en place des itérations avec ses clients. Ce sont en effet les clients ou futurs clients qui savent le mieux de la valeur pour eux : c’est pourquoi l’approche lean de la transformation digitale place le client au centre de la construction des nouveaux produits et services. Les outils du monde numérique, depuis l’intelligence artificielle jusqu’à l’approche DevOps, nous donnent les moyens de cette cocréation, car ils permettent de formaliser, d’automatiser et d’accélérer ces itérations. C’est le sujet principal de ce livre, la boucle continue du client au code et du code au client. L’approche lean est le fil rouge qui relie les différents thèmes du livre : j’y parle de Lean Startup, de Lean Software, mais surtout d’équipes autonomes, d’apprentissage continu par la résolution de problèmes, de l’importance du développement des compétences comme stratégie d’adaptation, du respect des connaissances techniques et des gestes métiers, et surtout de la recherche de la satisfaction du client en tant qu’étoile polaire, déclinée et vécue par chaque équipe.

J’ai écrit ce livre pendant les grandes-vacances 2019. Je suis très reconnaissant à mon groupe de relecteurs qui m’a permis d’affiner le manuscrit pendant les six mois suivants, et moins à l’épidémie COVID qui aura produit plusieurs mois de décalage pour la sortie. Le mois de juillet est loin d’être idéal, vu qu’il ne s’agit pas d’une lecture de plage. Ce livre est le résultat d’un peu plus de 10 ans d’expérience dans le développement des services numériques, chez Bouygues Telecom puis chez Axa. C’est bien sûr une synthèse des différentes méthodes mises en place avec succès, la combinaison des lectures et multiples rencontres avec d’autres acteurs numérique innovants. Mais c’est encore plus un retour d’expérience nourri par ce qui n’a pas fonctionné, depuis les services qui n’ont pas rencontré leurs utilisateurs jusqu’à ceux que l’absence de  « maitrise digitale » n’a pas permis de produire avec succès. Toutes ces années, passées à comparer ce que nous faisions par rapport aux « best practices » des meilleurs entreprises numériques, depuis les géants du Web jusqu’au startups de la Silicon Valley, m’ont aidé à apprécier la difficulté qui existe pour importer des méthodes de travail développées à une échelle différente ou dans une autre culture. Le livre reprend le contenu de mes deux blogs, distillé sur une dizaine d’années, mais comme chaque fois, le travail d’écriture m’a permis d’avoir des idées plus claires,  mieux structurées et mieux « tissées ». L’écriture d’un livre est également l’occasion de travailler en profondeur, les références sont considérablement enrichies par une bibliographie conséquente et de multiples notes de bas de page.

J’ai écrit ce livre pendant une longue convalescence, à la sortie d’une grosse opération au cœur. Son écriture est un exemple pratique d’application des méthodes décrites dans mon billet sur l’efficacité personnelle et l’illustration de la pertinence de la citation de Jacques Brel : « le talent, c’est d’avoir envie ». La motivation fondamentale, que les lecteurs retrouveront dans la conclusion du livre, est que la conviction que la France en général, et les entreprises françaises en particulier, ont un déficit culturel pour appliquer les ressorts de la transformation digitale. Ce livre est un livre plutôt détaillé, voire technique, mais son ambition est de décrypter des mécanismes et des blocages au sujet d’une transformation qui est très globale : l’entreprise, son environnement, ses capacités, son organisation. C’est pour cela que je suis particulièrement heureux qu’Emmanuelle Duez m’ait fait l’amitié d’écrire la préface. Le monde se transforme rapidement sous nos yeux, et l’important est d’avoir les clés pour participer à cette transformation. 

2. Pourquoi ce livre

Ce livre, tout comme mon deuxième livre qui parle du système d’information,  est construit en réponse à des paradoxes, des situations de frustration et d’incompréhension que j’observe souvent. Voici les trois exemples que je cite en introduction, je pourrais les qualifier de « pain points » :

  • Beaucoup de grandes entreprises se plaignent du faible retour sur investissements de leurs programmes de développement de services numériques. Après une période de fort engouement, lorsque l’on fait les comptes, on se rend compte que l’usage reste faible et que ces programmes n’ont généré qu’une faible partie de revenus additionnels. De plus, assez souvent, des acteurs récents et petits – des startups – se sont immiscés dans ce périmètre de services numérique, pour s’intermédier et prendre la place de la relation numérique avec le client. « Nous avons les moyens, les talents, les clients, la notoriété de la marque … et nous nous faisons dépasser par des startups ».
  • Les discours sur la transformation digitale, la création de valeur par les données, la réinvention avec l’intelligence artificielles sont tellement nombreux et assourdissants qu’il n’existe pas une entreprise qui n’ai pas décidé d’adopter les « technologies exponentielles » : cloud, apprentissage automatique et data science, intelligence artificielle.  Pourtant, l’adoption de l’ambition « data-driven » est lente, et la création de valeur ne reproduit pas ce qu’on trouve chez les entreprises numériques leaders, celles que Salim Ismail appelle les « Exponential Organizations ». On trouve des POC partout (proof of concept) mais le passage à l’échelle est long et laborieux.
  • L’engouement pour la transformation digitale a coïncidé avec une adoption massive des nouvelles organisations de développement de projets informatiques, autour des « méthodes agiles » qu’il s’agisse des directions digitales ou des DSI. Beaucoup d’entreprises ont espéré que ce changement de méthode les rapprocherait des performances logicielles des « Géants du Web », pourtant les progrès en termes de fiabilité, de vitesse de déploiement, et encore plus de vitesse d’adaptation au marché et aux concurrents (ce que les managers associent à « agile ») sont faibles et décevants. La création de nouvelles plateformes digitales n’a pas réussi à faire oublier la lenteur et les frustrations que nombre de managers expriment à propos de leurs services informatiques.

A côté de ces exemples imaginaires mais précis (toute ressemblance avec une situation ayant existé dans votre entreprise serait fortuite), il existe un « meta pain-point »  lié à la difficulté culturelle, pour nous Français, à adopter les postures et les comportements nécessaires pour cette transformation, parce qu’ils ne correspondent pas à nos modèles mentaux. Notre culture et notre éducation apporte un poids excessif à la conceptualisation. Plus que d’autres nations, nous avons tendance à confondre « la carte et le territoire ». Nous avons de plus besoin de « comprendre avant d’agir »,  alors que la nature VUCA de notre monde demande souvent « d’agir pour comprendre ». Notre culture du pouvoir et du rôle du chef ne favorise pas l’accession à l’autonomie et la responsabilisation des équipes. Ce livre n’a pas vocation à changer ce constat … mais d’en tenir compte et d’aller au fond des choses, d’appliquer la recherche des causes profondes, lorsqu’il explique ce que constitue la transformation digitale et les différentes capacités que les entreprises doivent développer, à la fois des capacités techniques et des capacités d’organisation.

Dans un billet precedent, j’ai parlé de l’excellent livre « Designed for Digital – How to architect your business for sustained success » de Jeanne W. Ross, Cynthia M. Beath, et Martin Mocker. Je partage l’ensemble du diagnostic sur la transformation digitale et sur les conditions pour la réussir. En particulier, il existe bien deux formes de transformation digitale : la transformation des processus existants – à la fois l’optimisation par les progrès numériques mais également la réinvention grâce aux capacité de transformation des technologies exponentielles – et la création de nouveaux « business models » qui exploitent la « transformation numérique du monde ». L’idée importante est qu’il ne faut pas les opposer : l’entreprise a besoin de construire son « digital backbone », qui lui permet de réaliser la première transformation, pour se mettre en capacité de penser à la seconde. Je vois « L’approche lean pour la transformation digitale » comme la suite de « Designed for Digital » : un livre plus technique et beaucoup plus précis, qui explique comment mettre en œuvre les recommandations du second.

 

3. Le contenu du livre

De façon simplifiée, on peut dire que le livre est organisé autour de trois contenus, qui sont trois capacités qui me semblent nécessaires pour réussir une transformation digitale :

  • La première partie parle de l’approche « Lean Startup » pour cocréer des produits et des services avec ses utilisateurs. Je n’entre pas ici dans le détail, c’est un des sujets fréquents pour les billets de ce blog. Cette partie du livre propose une synthèse pour la mise en œuvre de l’approche Lean Startup dans une grande entreprise – ce qui est spécifique et différente d’une petite structure – dans une vision globale qui va du Design Thinking au Growth Hacking.
  • La seconde partie du livre parle de la transformation du système d’information pour qu’il devienne un « système d’information exponentiel », c’est-à-dire une plateforme ouverte pour évoluer rapidement et absorber avec succès les vagues successives des évolutions technologiques, en particulier les progrès continus de l’intelligence artificielle. Cette partie est donc dédiée au « digital backbone », avec la conviction que la partie plus visible de la transformation digitale (création de nouvelles expériences, de nouveaux services et nouveaux produits) repose sur la transformation des « fondations » que représente le système d’information.
  • La troisième partie du livre est consacrée aux capacités logicielles que l’entreprise doit maîtriser pour pouvoir « jouer dans la cour des grands » du monde numérique. La première capacité consiste à combiner qualité et rapidité en adoptant les pratiques DevOps de l’intégration et du déploiement continu. Il ne s’agit de rien de moins que de développer une excellence du développement logiciel, que je place naturellement dans une vision lean, en appliquant une approche « Lean Software Factory ». La seconde capacité est de savoir construire des plateformes digitales,  qui sont à la fois des modèles d’affaire, des modèles d’organisation – autour de communautés – et des modèles d’architecture.

Le titre du livre, « l’approche lean pour la transformation digitale », n’est pas simplement un trait d’union entre Lean Startup et Lean Software. L’approche lean est le modèle mental qui permet d’absorber les défis de complexité et de changement permanent qui caractérisent la transformation digitale. Je ne suis pas le premier à voir à quel point les principes lean sont bien adaptés aux défis du monde numérique,  mais ce livre va beaucoup plus loin que la simple constatation. L’approche lean est « tissée » dans chaque page du livre pour permette de construire un modèle d’organisation et de travail apprenant et responsabilisant. Au-delà des différents contenus que je viens d’évoquer, l’approche lean a pour objectif de nourrir trois thèmes qui sont essentiels dans la transformation digitale :

  • Une véritable orientation client – La satisfaction des clients reste la seule « étoile polaire » du succès de l’entreprise et la transformation digitale est en premier lieu l’accélération de la proximité entre l’entreprise et ses clients.
  • Une transformation vers une organisation adaptative – donc agile et distribuée – ce qui impose un « changement de modèle » en termes d’organisation et de management.
  • Une orientation « logicielle » de l’entreprise, qui consiste à reconnaitre que « software is eating the world » et à embrasser le changement technologique en développant, selon les principes lean, le respect des compétences et de gestes associés.

 

4. A qui s’adresse ce livre

 

Ce livre a été écrit en pensant à trois types de lecteurs :

  1. En premier lieu, ce livre s’adresse aux managers, pour leur permettre de mieux comprendre les enjeux de la transformation digitale. Il existe déjà de multiples livres sur le « comment » ; ce livre porte sur le « pourquoi » et le « pourquoi c’est difficile ». Comme je l’ai dit en introduction, ceci n’est pas un « livre de plage » ; mon ambition est d’offrir un outil pour déchiffrer la complexité du monde compétitif des services numériques. Je suis bien conscient, et ceci m’a déjà été signalé par des premiers lecteurs, que ce livre rentre dans des détails techniques qui peuvent surprendre des « managers généralistes ». Mon humble opinion est qu’il est nécessaire de comprendre un peu le fonctionnement de l’intérieur pour être mieux capable de saisir les opportunités que la révolution technologique entraine. Je fais mienne cette citation d’Aurélie Jean que je cite dans l’introduction : « les décideurs doivent s’initier au code pour devenir des leaders éclairés … il faut des décideurs éclairés et non éblouis par l’informatique »
  2. Ce livre s’adresse également aux praticiens des systèmes informatiques, non pas comme un livre technique qui proposerait des solutions – je fais l’hypothèse que ces lecteurs en savent autant que moi – mais comme un outil de communication. Le rôle des praticiens dans la transformation digitale est essentiel : ils doivent être des passeurs de savoir. La transformation digitale est entre les mains des acteurs métiers, mais le terrain de jeu est défini par les capacités digitales. Mon objectif ici est de trouver des modèles mentaux commun qui facilite la communication entre ceux qui font et ceux qui veulent.
  3. Je m’adresse également aux développeurs de services innovants, qui cherchent à implémenter une approche Lean Startup dans une grande entreprise. Même si ce n’est pas un livre sur l’innovation, elle tient une part importante dans le récit et ce livre devrait intéresser les responsables d’innovation, tout comme les « product managers » et « product owners ».

 

La figure suivante est tirée du troisième chapitre. C’est une forme de clin d’œil puisqu’elle illustre un principe général : permettre à ceux qui développent le code associé à des user stories de comprendre l’étoile polaire - les UVP (Unique Value Proposition) -  et l’observation des pain points qui ont conduit à cette étoile polaire. Ce schéma s’utilise habituellement sur des exemples de services concrets. Je milite depuis de nombreuses années sur la construction et la mise à jour de ce graphe de correspondance, car il est fréquent que les « user stories » évoluent pendant les allers-retours et les réunions (qui sont la marque de la taille de l’entreprise), et que le « sens » primitif se dilue. Mon expérience depuis plus de 10 ans est que la qualité du code produit est significativement meilleure lorsque le développeur connait les pain points – c’est évident, implicite et sans effort pour une startup ; dans une structure plus grande, cela se travaille. Je reproduis cette figure ici car elle résume le contenu de ce billet et la vocation du livre.

 


5. Du client au code et du code au client

 

Pour conclure, les lecteurs de ce blog auront reconnu l’illustration suivante, qui est la colonne vertébrale du livre et l’inspiration du sous-titre « du client au code et du code au client ».

 

Cette figure permet de reconnaitre les 3 contenus du livre évoqués plus haut :

  • Du client au code : l’approche « lean startup », prise dans un sens large, avec un accent important sur le design et sur l’amélioration continue du produit après son lancement.
  • Du code au client : l’approche « lean software factory », qui utilise le « lean software development » pour regrouper des pratiques agiles,  CICD et une approche « produit ».
  • Une boucle perpétuelle et une organisation unique, en synergie, autour des produits (ou services) et des équipes qui construisent ces produits.  

 

 

 

 


lundi, juin 29, 2020

Les habitudes de l’efficacité personnelle


1. Introduction

 

Ce billet est un billet d’été, une période favorable à la prise de recul et l’observation. J’ai décidé de revenir sur le sujet de l’efficacité personnelle, un sujet que j’aborde souvent dans ce blog sous le vocable de selfLean . Une de mes citations préférées est la phrase célèbre d’Aristote :  « Nous sommes ce que nous faisons de façon répétée, l’excellence est une habitude ». Je vais donc m’intéresser à l’efficacité personnelle, qui est une forme d’excellence, au travers des habitudes qui sont favorables à son développement. Sur le thème de l’importance des habitudes, il y a de nombreuses et excellentes ressources, mais je vous recommande le best-seller de James Clear, « Atomic Habits – An Easy & Proven Way to Build Good Habits and Break Bad Ones », que j’ai commenté ici. L’importances des pratiques et des habitudes pour implémenter l’amélioration continue, d’une personne comme d’une équipe, n’est plus à démontrer.

La deuxième référence que je peux faire ici à la pensée grecque est le fait de s’observer pour se connaitre : « Gnothi Seauton ». Mon intérêt prononcé pour le « quantified self » et le « self tracking », par exemple au travers de d’application Knomee, est dû à l’importance de l’observation à la fois pour mieux se comprendre et mettre en place des habitudes. Je peux citer ici Gretchen Rubin dans son livre célèbre « The Happiness Project » : « Current research underscores the wisdom of Benjamin Franklin chart keeping approach. People are more likely to make progress on goals that are broken into concrete, measurable actions, with some kind of structured accountability and positive reinforcement ». Pour développer son efficacité personnelle, il est essentiel de bien se connaitre. A l’inverse, les habitudes qui permettent de développer cette efficacité n’ont rien de révolutionnaire ou d’original. Elles sont connues depuis longtemps et ce qui est complexe, c’est la discipline pour les mettre en place et s’y tenir.


J’écoute un certain nombre de podcasts sur ce thème, comme le « Tim Ferris Show » ou « Le Gratin » de Pauline Laigneau. On retrouve dans les différents interviews, tout comme dans le livre de Bruce Daysley, beaucoup de thèmes communs et surtout de pratiques communes.  Dans cet esprit de « devenir une meilleure version de soi-même », ce billet se veut une synthèse des pratiques que j’essaye de transformer en habitudes pour augmenter mon efficacité personnelle, dans mon activité professionnelle et les différentes extensions, depuis l’écriture du blog (et des livres) jusqu’au développement (CLAIRE , GTES ou Knomee). Comme ce sont des sujets que j’ai déjà abordés, je vais rester synthétique et essayer d’avoir une vue en largeur plutôt qu’en profondeur. Je vais donc me limiter à une quinzaine de pratiques ou d’idées, sans trop essayer de vous convaincre.

Le billet est organisé comme suit. La section suivante commence par l’organisation des tâches, dans l’esprit de « Getting Things Done ». Si je marche clairement sur les pas de David Allen, j’y ajoute l’apport de l’approche lean au travers du « SelfLean » : organiser ses flux, réduire son WIP et rendre la complexité visible.  La section 3 s’intéresse plus en détail à la gestion du temps (ce qui est bien sûr un des aspects de la gestion des tâches). Toujours dans l’esprit lean, le plus important est de savoir maintenir l’ouverture aux opportunités, savoir « se hâter lentement » pour profiter d’un monde incertain et volatil. La section 4 traite de l’utilisation des lieux. Les lieux jouent un rôle important dans notre efficacité, à la fois d’un point de vue fonctionnel (il y a des lieux mieux adaptés que d’autres en fonction des activités) mais également d’un point de vue symbolique, comme ancrage de nos pratiques. Associer des pratiques à des lieux est un accélérateur de discipline. La dernière section porte sur la gestion de l’énergie, un sujet qui m’apparait de plus en plus fondamental en prenant de l’âge. C’est le sujet d’un autre best-seller, « The Power of Full Engagement », de Jim Loehr et Tony Schwartz, dont le sous-titre résume bien ce dont je vais parler : « Managing Energy, Not Time is the Key to High Performance and Personal Renewal ».

 

2. Bien gérer ses taches

La première pratique, la plus évidente à énoncer mais qui requiert beaucoup de discipline à exécuter, est de faire une chose (importante) à la fois, et de la faire vraiment bien. C’est le deuxième principe fondateur de Google: “Mieux vaut faire une seule chose et la faire bien ». Cette phrase seule mériterait un billet de blog; j’ai mis plus de 10 ans à comprendre sa profondeur. La première raison est l’inefficacité du multi-tasking, qui est aujourd’hui prouvé scientifiquement. La seconde raison est l’importance de l’impact pour maintenir notre engagement et notre énergie, j’y reviendrai. La troisième raison est l’importance de l’apprentissage, de l’amélioration continue pour développer notre « mastery », au sens de Daniel Pink. Il y a dans l’expression « la faire bien » une réflexivité nécessaire qui est la principale cause du dépassement de soi.


La deuxième pratique consiste à décharger son esprit de la charge mentale des choses à faire, et donc d’écrire des « to do » lists,  en suivant les recommandations de David Allen dans « Getting Things Done ». Je pratique depuis très longtemps les « to do », sur des échelles de temps variées (je vais y revenir), en mode « backlog » : le but est de vider mon esprit, pas de créer du stress supplémentaire avec des planning intenables. Tout ce qui est dans le backlog est noté pour ne pas être oublié (et libérer le cerveau de la tâche de s’en rappeler), mais une grande partie sera éliminée ensuite, selon les bonnes pratiques lean et agile (« choisir, c’est renoncer »). Je cherche à maximiser le flux de création de valeur, pas à faire le maximum de choses ni tenir le maximum d’engagements. La gestion du backlog a pour but de faire la bonne chose au bon moment, et donc de savoir attendre.

Si la ou les  « to do lists » sont des backlogs,  il faut utiliser d’autres solutions pour piloter son flux personnel de travail, et c’est ici que les outils lean de management visuel sont utiles. J’utilise depuis une dizaine d’année des « kanbans personnels » dont le premier but est de rendre visible la complexité/richesse du backlog pour m’aider à limiter mon « work in progress » et donc à faire des choix et renoncer. J’utilise par exemple le tableau (ou sa forme électronique) pour représenter chaque dossier (ou projet) en cours. Dans le type de jobs que j’occupe, le kanban est un outil essentiel pour mettre en œuvre la première pratique. Le kanban permet aussi de travailler le plus possible en mode pull, en fonction des consommateurs de ce que l’on produit. Un document qui n’est pas lu ne sert à rien, un mémo qui ne permet pas de conduire à une conversation ne libère, le plus souvent, que 10% de sa valeur potentielle.


3. Bien gérer son temps

L’outil qui me sert le plus est une structuration « fish eye » de mes horizons de temps, développée au cours des années. Cela me permet d’avoir une backlog pour un temps infini, avec des compartiments de même taille (en charge mentale) pour la journée qui vient, la semaine qui vient, le mois qui vient, l’année qui vient. Le principe de la vue fish-eye est d’avoir un bon niveau de détail pour ce qui est proche, et qui diminue pour ce qui est éloigné. Utiliser un planning multi-échelle avec cette contraction progressive du temps vers l’horizon permet une manipulation très facile de son backlog. On pourrait penser que la contraction du temps biaise la gestion de capacité, mais l’expérience montre au contraire que c’est une bonne pratique d’être d’autant plus restreint que l’horizon est lointain.


Je cite ici l’ouvrage de Bernard Leblanc-Halmos, « où trouver le temps ? » car c’est bien le sujet dont il s’agit ici, et cette lecture reste jubilatoire, même si le livre a 30 ans. Trouver le temps, c’est le préserver ; le rôle principal des outils de gestion du temps est de servir l’objectif de la section précédente – se donner le temps de bien faire ce que l’on fait ou l’éliminer de sa backlog – et, encore plus, se préserver l’agilité de pouvoir saisir les opportunités que l’on ne connait pas encore. Ce point est fondamental, il est à l’intersection de deux principes. Le premier principe « lean » veut que pour bien travailler, il faut se laisser des marges de manœuvre. Je parle très souvent de l’importance des « buffers » pour le travail d’équipe, mais cela s’applique également à l’efficacité personnelle, pour les mêmes raisons de complexité. Le second principe « agile » veut que chaque utilisation du temps soit comparée à sa valeur d’opportunité. C’est raisonnablement facile dans le présent (passer du backlog au kanban en faisant ses choix), c’est plus subtil lorsqu’il s’agit du futur que personne ne connait. Je vous renvoie ici à l’éloge de « festina lente » de Nassim Taleb dans Antifragile.

Une idée reçue veut que le temps soit fini, et qu’il soit le même pour tous. Pourtant, la perception du temps est relative et subjective. L’efficacité permet justement de dilater le temps, ou de compresser ce qui soit entrer dans une période de temps. C’est vrai pour le travail personnel, c’est également vrai pour la communication : une communication bien préparée est plus efficace et prend, ce que je constate années après années, moins de temps. Tout ceux qui travaillent avec moi savent que je suis un grand amateur de dessins, de schémas et d’illustrations. J’aime collaborer en dessinant au tableau, j’utilise des schémas pour expliquer, et cela marche beaucoup mieux en construisant le schéma pendant la conversation, ce que savent tous les enseignants. Collaborer exige de partager un contexte, utiliser les illustrations est une façon de « compresser le contexte » : plus le schéma est pertinent, moins il faut de temps pour se synchroniser sur ce contexte. De la même façon que la complexité de Kolmogorov lie l’intelligence à la compression, mon expérience est que le temps passé à construire ses arguments et représenter ses idées sous formes de dessins et schéma est un accélérateur d’efficacité, personnelle comme collective. C’est d’ailleurs le même argument qui me conduit à penser que l’utilisation des assistants cognitifs – qui se préparent pour les décennies à venir – vont être un formidable accélérateur de communication et de collaboration.

 

4. Bien gérer sa communication

Qu’il s’agisse d’email, de SMS ou de messages sur les différentes plateformes collaborative modernes, la communication asynchrone est un outil indispensable pour optimiser son efficacité, pour deux raisons évidentes :  le découplage temporel redonner la liberté d’optimiser son temps et l’efficacité de la lecture (on lit beaucoup plus vite que l’on n’écoute) permet de mieux gérer le problème de la surcharge des flux entrants. J’ai beaucoup écrit dans ce blog sur l’approche lean appliqué à la gestion des courriels (LEMM : Lean E-Mail Management), mais en me concentrant surtout sur le « système » émetteur-lecteur et les règles collectives d’usage. De façon plus personnelle, la pratique essentielle est de réduire le temps de traversée de sa boite mail, pour réduire le nombre (cf. la loi de Little), ce que je fais avec deux pratiques : éviter le rework (traiter chaque mail une seule fois) en utilisant des couleurs,  et traiter mes emails une fois par jour au moment que je choisis (matin) et de façon contrôlée (en exploitant sans remords la dimension asynchrone). Maintenir sa boite email dans un « état ordonné » est à la fois une application des principes précédents (réduire sa charge mentale) et la façon de résoudre un paradoxe : comment participer à l’accélération des flux (approche lean de l’efficacité collective) sans devenir un esclave de sa boite aux lettres. Si vous voulez plus de conseil sur la bonne façon de gérer le flux entrant désordonné de demandes, je vous conseille d’écouter Elizabeth Gilbert.


Une des idées les plus importantes de ce blog, tirée à la fois de mon expérience et de mes lectures, est que le travail dans un monde complexe exige la collaboration synchrone. Je vous renvoie au livre de Bruce Daisley, « The Joy of Work », que j’ai déjà commenté. La communication synchrone, qu’il s’agisse du standup meeting, du coup de fil, de la visio ou de la conversation devant un café, offre une « bandwidth », au sens de CMC,  beaucoup plus importante, c’est-à-dire la possibilité de construire des multiples boucles courtes de synchronisation, précisément. La communication synchrone est donc un bien précieux à protéger. D’une façon générale, je la réserve aux personnes avec qui je travaille et je renvoie les autres vers les canaux asynchrones. Pour être efficace, la communication synchrone demande un fort engagement, ce qui me conduit à réguler les plages de temps que je lui alloue, par exemple en ne répondant pas au téléphone lorsque je travaille. Pour être encore plus précis, j’utilise le synchrone pour le transport des informations complexe mais l’asynchrone pour la signalisation (la mise en place des flux synchrones). De façon plus générale, je souscris à 100% au besoin de chasser les interruptions, un point clé de Bruce Daisley qui correspond à plus de 20 ans de recherche scientifique. La suppression des notifications est un « must », cela ne me semble plus être un objet de débat.

Un cas particulier de la communication synchrone qui mérite beaucoup d’attention dans nos vies modernes est celui des réunions. Ici aussi, c’est un sujet dont j’ai beaucoup parlé dans ce blog, mais plutôt d’un point de vue systémique et collectif.  Du point de vue de l’efficacité personnelle,  je retiens deux principes. Le premier est de limiter constamment le temps passé dans les réunions planifiées pour garder du temps pour des réunions non planifiées, pour profiter de la sérendipité et augmenter son agilité. C’est très difficile, même avec beaucoup de discipline (j’utilise depuis 15 ans un tableau mensuel pour mesurer la charge des réunions planifiées) et cela ne doit pas faire oublier que plus l’organisation est large, plus la planification est nécessaire. Autrement dit il s’agit de faire le moins de réunions possible, mais pas moins que le nécessaire. Le second principe, encore plus exigeant du point de vue de la discipline, est de bien préparer chaque réunion. Une réunion est un « commun »,  dans le sens des économistes, il appartient à chacun d’en tirer le meilleur profit et évitant « la tragédie des communs ». Je m’étais proposé, il y a 15 ans, de ne pas participer aux réunions que je n’avais pas le temps de bien préparer, mais je ne suis jamais arrivé à me tenir à cette règle. En revanche, la version plus souple de ce principe, qui consiste à allouer du temps de préparation à chaque réunion au moment où elle est inscrite dans l’agenda, fonctionne très bien et augmente significativement l’efficacité personnelle.


L’application des principes de cette section peut conduire à un renforcement des « liens forts » et un renfermement sur son monde connu. C’est pour cela qu’il faut complémenter ces pratiques avec d’autres qui permettent de développer ses liens faibles. Développer ses liens faibles, c’est en premier lieu parler à « des gens que l’on ne connait pas », alors que tout est fait pour rester dans son « réseau personnel ». Depuis Mark Granovetter, nous connaissons la force des liens faibles. L’écriture de ce blog est un exemple de pratique qui correspond à ce principe. La même remarque s’applique bien sûr à la présence sur les réseaux sociaux. La pratique de l’écriture de billet de blog est à la fois un exercice de « compression » (écrire c’est mettre ses idées au clair) et une façon de constamment développer des liens faibles. Au bout de 15 ans de pratique (sous toutes ses formes, au-delà du blog), je peux témoigner de la grande contribution de mon « réseau faible » à mon efficacité personnelle. Bien sûr, cela ouvre la question de la surexposition à des flux entrants, mais une fois de plus, tout est question de discipline.  La meilleure pratique que je connaisse pour éviter d’être noyé sous les flux d’articles qui me sont poussés quotidiennement est de donner une solide préférence aux livres.


5. Bien gérer sa localisation

Je me suis considéré pendant de nombreuses années comme un « road warrior » capable de travailler n’importe où avec mon ordinateur, indépendamment du lieu ou du contexte. La raison principale étant de pouvoir grapiller toute occasion d’ouvrir le PC et de pouvoir coder, avec le sentiment d’une grande efficacité personnelle. Pourtant, même si la technologie donne des ailes à cette ambition ATAWAD (anywhere, anytime, any device), le lieu où l’on travaille compte, et il faut savoir en profiter pour développer son efficacité personnelle. Après deux mois de confinement lié à la COVID, nous avons pu constater que le télétravail à la maison fonctionne, mais que le bureau est souvent mieux adapté pour le travail collectif, lorsqu’il s’agit de cocréer, d’influencer ou d’expliquer. Il me semble d’ailleurs clair, comme le souligne Emmanuelle Duez dans cet interview, que ce que nous avons appris sur l’adéquation entre le lieu et le type de travail va nous conduire à réinterpréter le rôle des lieux collectifs. Cette importance du lieu s’applique également à l’échelle individuelle : même s’il est possible de faire « tout partout », il y a des lieux qui se prêtent mieux que d’autres à certaines activités : du silence pour se concentrer, de la vie pour « s’aérer les neurones », la capacité de bouger, la vue qui incite à la réflexion ou la distraction, etc.


La technologie et la numérisation sont les supports de cette capacité de pouvoir faire ce qu’on veut où l’on veut. En revanche, je reste un fervent partisan du papier et des tableaux blancs. Bien sûr, il est difficile de dissocier cette remarque de mon âge ou mon éducation, mais le tableau blanc, ou les feuilles (multiples) de papier, permettent à la fois un affichage concurrent d’une grande masse d’information (ce que Nicolas Lochet appelle un « radiateur d’information » : le support « émet » l’information, que vous le lui demandiez ou non ) et une capacité d’édition collaborative multi-échelle inégalée (la résolution d’un feutre au tableau permet de faire des annotations multiples, à des niveaux de détail différents, qui restent visibles de tous). Il y a les lieux sans tableaux, les lieux avec un tableau et les lieux avec des multiples tableaux (sur les murs ou à la place des murs) … et on ne travaille pas de la même façon, avec la même efficacité. Je parle souvent de stigmergie dans ce blog, la capacité d’utiliser les lieux pour communiquer, qu’il s’agisse des tableaux blancs, des murs pour le management visuels ou des différentes formes d’affichage sur les lieux de passage. C’est une des nombreuses composantes qui font des bureaux des outils collaboratifs indispensables. Comme le disent Eric Schmidt et Jonathan Rosenberg dans « How Google works », les projets ambitieux du monde complexe nécessite des lieux où les gens « work, eat and live together » : « Buildings should promote interactions between employees …
This sort of serendipitous encounter will never happen when you are working at home ».

L’utilisation des lieux peut se faire d’une façon plus personnelle comme un support aux bonnes habitudes, aux pratiques que nous avons mentionnées.  Associer un type d’activité (lire, préparer ses réunions, répondre à ses mails, coder, annoter un document, etc.) à un lieu (une pièce de sa maison, un endroit sur son lieu de travail) est une façon de créer un ancrage. L’évolution nous a rendu très susceptibles à ce type d’ancrage, c’est donc un excellent outil pour développer des pratiques. Cela fonctionne dans les deux sens : le lieu peut devenir l’endroit où une bonne pratique se développe, mais également un rempart contre des mauvaises habitudes. J’ai évoqué – brièvement, c’est un autre sujet – l’importance de l’information overload. Utiliser les lieux peut signifier créer des « sanctuaires », des endroits où certains flux de sollicitation ne sont pas admis. Pour prendre la bonne habitude d’utiliser les livres comme principal vecteur d’apprentissage, les lieux sont très utiles (une fois l’habitude prise, elle devient facilement nomade). Le temps et l’espace sont également importants, il faut les associer pour construire ses habitudes. Faire une chose dans un lieu, c’est une façon d’éviter de céder à l’urgence, d’attendre son « rendez-vous avec soi-même », au bon moment et au bon endroit, pour faire quelque chose mieux, et plus tard.


6. Bien gérer son énergie

L’importance de la gestion de l’énergie est devenue un sujet de grande attention depuis une quinzaine d’année. Si vous ne connaissez pas ce domaine, je vous recommande l’article de Harvard Business Review, de Tony Schwartz et Catherine McCarthy : « Manage Your Energy, Not Your Time ». Le point fondamental est que les habitudes et rituels permettent de mieux gérer notre énergie : « energy can be systematically expanded and regularly renewed by establishing specific rituals – behaviors that are intentionally practiced and precisely scheduled, with the goal of making them unconscious and automatic as quickly as possible ». Les idées clés ne devraient pas vous surprendre : il s’agit de bien gérer son sommeil, de faire de l’exercice, de savoir prendre des pauses et de nourrir sa motivation. Il est important de savoir s’observer, d’apprendre les activités qui consomment de l’énergie et celles qui permettent de se « resourcer », pour construire, comme les athlètes, un programme de développement fractionné, par intervalles.  L’article de HBR parle de « ultradian sprints » qui sont des périodes de 90 à 120 minutes, séparées par de vraies pauses. Pour reprendre une idée clé du livre citée en introduction, l’énergie se perd (n’est pas utilisée avec l’efficacité maximale) lorsqu’on en utilise trop ou trop peu. Il faut penser sous forme d’alternance de sprints et de récupération, et pas une utilisation continue (ce qui n’est pas forcément intuitif). On retrouve dans les recommandations pour bien gérer son énergie des pratiques que nous avons déjà évoquées : éviter le multi-tasking, prendre des décisions rapide pour alléger la charge mentale, se fixer des zones et des limites.

L’outil fondamental de la gestion de l’énergie est l’auto-observation et la chrono-analyse. Je vous recommande ici la lecture du livre de Daniel Pink : « When – The scientific secrets of perfect timing ». Il faut savoir reconnaitre ses variations d’énergie et utilise les bons moments de la journée : « First, our cognitive abilities do not remain static over the course of a day. During the sixteen or so hours we’re awake, they change—often in a regular, foreseeable manner. We are smarter, faster, dimmer, slower, more creative, and less creative in some parts of the day than others ». J’utilise l’application Knomee pour “tracker” mon énergie et construire mes histogrammes, ce qui m’a permis de redécouvrir ce qu’explique Daniel Pink : nous avons des cycles semblables. On retrouve la même conviction dans l’article de Sebastien Martin « How to start managing your energy levels instead of your time”. Je pratique le conseil qu’il donne : « One important thing to do in high-energy times is to plan tasks for low energy. That is why I put “writing to-do lists” in the high-energy time: planning is much easier when you have an overview ».

Je suis de plus en plus persuadé que la gestion de l’énergie est le levier le plus central de l’efficacité personnelle. On retrouve d’ailleurs l’importance d’un des cycles fondamentaux de la biologie, celui de l’apprentissage, qui se résume de façon un peu caricaturale par : l’action réussie procure un plaisir qui engendre le désir qui conduit au plan qui entraine de nouveau l’action. Dans une boucle d’apprentissage, le plaisir lié au feedback et au sentiment d’impact, tout comme le désir qui nous relie au sens et alimente la motivation, sont essentiels. Pour développer son énergie, il faut cultiver sa motivation. Ce qui conditionne le succès, « c’est d’avoir envie ». On touche ici à une dimension personnelle, et je ne connais pas de pratiques ou de conseils qui s’appliqueraient à tous. C’est à chacun de savoir ce qui nous motive, ce qui nous donne le sentiment de progresser, ce qui nous rassure sur l’impact de nos activité (à l’exact opposé des fameux « bullshit jobs » sans impact). En revanche, ce que tous les articles et livres qui traitent de la gestion de l’énergie soulignent, c’est qu’il nous appartient de nous connaitre et d’inclure dans nos agendas les quantités nécessaires des activités qui nous ressourcent, soit simplement par le plaisir qu’elles procurent, soit parce qu’elles contribuent au sens que nous souhaitons donner à nos actions.

 

7. Conclusion

Ce billet se veut être un partage d’expérience, même si chacun bénéficie différemment des pratiques et des habitudes que je viens d’évoquer. D’un côté, les pratiques et les raisons scientifiques qui les soutiennent sont assez universelles, elles sont d’ailleurs en général connues depuis longtemps. D’un autre côté, l’impact sur l’efficacité personnelle de chacun est variable et surtout, l’effort nécessaire à mettre en place ces habitudes est très différent d’une personne à l’autre. Puisque les efforts varient selon l’invididu et les circonstances – exactement comme le télétravail –, le rapport coût/bénéfice reste à l’appréciation de chacun. De plus , les pratiques que j’ai évoquées ici ne sont pas forcément intuitives. Il ne faudrait pas d’ailleurs penser que je les adoptées facilement, suite à une lecture éclairante. Tout au contraire, sur la plupart de ces points, mes habitudes personnelles de départ étaient à l’opposé de ce que j’écris aujourd’hui. Il convient donc de prendre tout cela avec un grain de sel, comme une invitation à la réflexion. Je termine en soulignant que j’ai traité ici de l’efficacité personnelle, par opposition à l’efficacité collective, qui est le sujet de mon précédent livre « Processus et Entreprise 2.0 ». Les deux thèmes sont en fait fortement liés, à la fois sous forme de synergie – chacun alimente l’autre – et sous forme de contraintes systémiques. Certaines des pratiques que j’ai exposées ici sont indépendantes, chacun peut les appliquer ou non,  sans se préoccuper du système global. A l’inverse, certaines pratiques comme la bonne façon d’utiliser ses canaux de communication, ou de gérer ses réunions sont complètement couplées aux pratiques collectives de son organisation.


 

 


dimanche, mai 24, 2020

Modèles simplistes pour systèmes complexes

 


1. Introduction


Le billet de ce jour sera plus court que les autres, je souhaite partager ce que j’ai appris à travers un petit exercice de modélisation de l’épidémie COVID, sans vraiment parler de COVID. Je ne vais pas parler de ce que ce modèle dit, pour des raisons qui devraient devenir évidentes d’ici la fin de l’article. Je vais plutôt partager des retours réflexifs d’expérience sur l’utilité et les dangers d’une telle démarche, parce qu’il y a une grande constance dans les expériences que je pratique depuis 15 ans. Je construit des modèles simplistes pour des systèmes complexes depuis un certain temps, qu’il s’agisse des coûts du SIdes parts de marchés dans les télécommunication, des enchères de licences mobile, des smart grids  ou encore des réseaux d’affiliation (la structure des réunions dans des entreprises). Je cite ici des exemples qui ont conduit à des publications, il y en beaucoup d’autres qui ont échoué, pour des raisons intéressantes, comme par exemple la modélisation de la compétition entre réseaux sociaux. J’ai développé plusieurs outils, tels que la simulation par jeux et apprentissage (GTES), et le lecteur trouvera plus de détail dans mon article « Game-Theoretical and Evolutionary Simulation : A Toolbox for Complex Entreprise Problems » (CSDM 2012).

Dans le cas de la simulation de l’épidémie du COVID, j’ai réalisé une simulation SEIR très naïve, avec des étapes à durées fixes. J’utilise la même logique que la simulation présentée par Pasteur dans « Estimating the burden of SARS-CoV-2 in France », mais sur-simplifiée, car construite comme un exercice de pensée, pour voir à quoi ressemble le développement de l’épidémie sur une population différenciée par classes d’âge et types de « distanciation sociale culturelle ».  Choisir des durées fixes pour les différentes étapes (incubation, phase asymptomatique, phase symptomatique, hospitalisation) permet un exercice de modélisation simple sous Excel. Toujours dans le même esprit de simplification, j’ai représenté trois groupes de population seulement, les moins de 60 ans, les 60-80 et les plus de 80 ans, en différentiant non seulement les effets de la maladie (à partir des études publiées) mais également la sociologie des contacts. La mise au point, à partir des données collectées sur Wikipédia, a duré quelques semaines. Mon objectif principal était d’étudier les différences entre la France, l’Italie et l’Allemagne, et de voir comment on pouvait interpréter des chiffres de nombres de cas avec des politiques différentes de test. Même s’il s’agit d’un modèle très simple qui se mesure en heures de travail, j’ai retrouvé avec intérêt les mêmes plaisirs et difficultés que pour les approches plus conséquentes évoquées plus haut.

Le billet est organisé comme suit. La section suivante parle de ce que j’ai appris à titre personnel. C’est le plus important car la modélisation simpliste est avant tout un exercice d’apprentissage individuel, pour se débarrasser de ses idées fausses. Une modélisation simple a une valeur faible pour valider des hypothèses, mais une valeur réelle pour en invalider et pour faire prendre conscience d’une erreur de raisonnement. Utiliser un modèle simple pour étudier un système complexe est un exercice d’humilité : non seulement il y a tout ce qu’on ne sait pas qui empêche de bien comprendre le fonctionnement du système, mais surtout, pour paraphraser Mark Twain, il y a ce qu’on pense savoir et se trouve simplement être faux.  La troisième section s’intéresse à l’utilisation du modèle comme outil de communication. Une fois la longue étape de mise au point terminée, parce que le créateur du modèle a appris souvent beaucoup de choses la tentation est grande de partager le résultat. Mais le modèle reste simpliste et fragile, c’est donc le plus souvent un mauvais outil de communication.  Une partie importante de la valeur tirée de la modélisation est une connaissance acquise de façon dynamique, et elle ne se transmet pas facilement.


2. Leçons personnelles


Un modèle simpliste, que l’on qualifie souvent de « modèle jouet », est en premier lieu un outil de mise au point de modèle. Construire un modèle d’une situation ou d’un système, c’est en premier lieu formuler des hypothèses. Ceci est vrai pour un modèle dans le sens scientifique (les hypothèses sont formalisées par des équations) ou pour un modèle mental (le modèle est une somme de croyances et de valeurs). Un modèle simpliste est en quelque sorte le MVP d’un modèle plus complexe, c’est un assemblage cohérent de quelques hypothèses dont le modélisateur se demande si elles sont pertinentes. Le modèle simpliste est minimal pour aller vite …. et viable pour pouvoir être soumis à la simulation et l’expérimentation. Exactement comme pour le Lean Startup, le modèle simpliste permet de faire rapidement le tri entre les bonnes et les mauvaises hypothèses de modélisation. Autrement dit, la modélisation simpliste est un outil de débogage de ses modèles mentaux. On comprend dès lors que cette pratique soit adaptée aux systèmes complexes, puisque la complexité est précisément ce qui génère la différence entre le comportement réel et le comportement attendu d’un système. En revanche, le modélisateur fait implicitement une hypothèse d’échelle : celle qu’une modélisation simpliste et incomplète peut simuler certains aspects du comportement du systèmes. C’est souvent vrai (systèmes complexes hiérarchiques ou multi-échelles) et c’est également souvent faux (il faut l’ensemble des éléments et des relations du système pour faire émerger le comportement global).


Une approche simpliste d’un système complexe est un outil d’invalidation, pas de validation. Par construction, il n’y a pas assez de connaissance dans le modèle simple pour que son comportement, même s’il reproduit le passé et offre des capacités prédictives correctes, soit une preuve d’une forme de validité. En revanche, il permet de réévaluer ses certitudes. Par exemple, le fait de différencier les populations par âge et d’introduire des fréquences de contacts différentiées permet, en fait, de reproduire les différences de propagation et de mortalité observées en Italie, France et en Allemagne. Cette modélisation ne permet pas d’affirmer que la seule sociologie des contacts explique les différences entre les données observées, mais elle permet d’avoir une forte réserve face aux multiples affirmations que nous avons entendues du type « Il suffit de comparer l’Allemagne et la France pour voir que leur système hospitalier est meilleur ». Peut-être … mais peut-être pas. Pour donner un autre exemple, le modèle SEIR que j’utilise, tout comme le modèle de Pasteur préalablement cité, permet de déduire un taux d’efficacité du confinement. Si on le compare avec les données de mobilité collectées par Google, on obtient le même ordre de grandeur. Ceci n’est pas la preuve que le modèle est juste, mais cela permet de continuer à travailler sur l’hypothèse de la modélisation du confinement par réduction des contacts (qui reste une hypothèse simpliste).

 

Un modèle simpliste n’est pas un outil de prévision, même si l’on utilise l’évaluation de la capacité prédictive comme une des mesures qualitatives de crédibilité du modèle simpliste. On retrouve ici la même asymétrie : si les prévisions fonctionnent, on ne sait pas si le modèle est juste, mais on peut continuer à travailler ses hypothèses ; si les prévisions ne fonctionnent pas, il faut analyser les chiffres et partir à la recherche d’une hypothèse à incriminer. Il faut être extrêmement méfiant face aux prévisions d’un modèle simple :

  • Le modèle exécutable reproduit le modèle mental du modélisateur, avec ses croyances et ses biais. A la fin, l’observation permet d’apprendre des choses sur le modélisateur, bien plus que sur le système étudié.
  • Les outils modernes de modélisation, et la puissance des outils (un problème que je n’avais pas dans de cas avec mon modèle COVID, mais que j’ai dès que j’applique des approches de simulations par jeux et apprentissage) font que les risques d’overfitting sont multiples.

Le risque d’overfitting est d’autant plus grand que le modèle est riche. C’est pour cela que la pratique des modèles simplistes est intéressante : l’erreur de raisonnement est plus facile à débusquer. Dans l’approche GTES, une partie importante de la mise au point est automatisée. Le fait de laisser la machine « secouer le modèle » par randomisation puis recherche d’équilibre de Nash par une approche évolutionnaire, est une remarquable méthode pour débusquer les erreurs de modélisation. Les « erreurs de débutants » (comme par exemple voir des lois exponentielles là où se trouvent des courbes en S) sont sanctionnées de façon impitoyable.

 

Une caractéristique commune de nombreux systèmes complexes est la combinaison de la croissance exponentielle (dans un premier temps, cf. le point précédent) et des délais. C’est particulièrement frappant pour une épidémie telle que le COVID, et nos modèles mentaux sont très mal équipés pour gérer ces deux caractéristiques. C’est bien connu pour la croissance exponentielle (par exemple, la célèbre histoire de l’échiquier) mais c’est non moins vrai pour les délais (l’exemple non moins célèbre du mitigeur de douche : si la distance, donc le délai, entre le mitigeur et la tête de douche est trop longue, nous gérons mal la boucle de feedback et nous sur-réagissons en oscillant entre chaud et froid). A cause du temps nécessaire pour le développement de la maladie, et en particulier la phase d’incubation, le délai entre une action et son effet sur les cas détectés est long (de l’ordre de deux semaines) et le délai est encore plus long pour l’effet sur les décès (un chiffre mieux maitrisé que celui des nouveaux cas). C’est pour cela que les épidémiologistes et les médecins en général demandent des temps longs pour l’observation, mais ce n’est si facile à accepter dans nos modèles mentaux tourné vers l’action. On retrouve ici une asymétrie : s’il faut être patient pour juger les effets des actions, il faut au contraire savoir anticiper et prendre des décisions rapides, avant de pouvoir constater. Les pays qui ont pris des décisions rapides, sur la foi des déclarations des autres pays, au lieu d’attendre de constater les premiers symptômes sur leur territoire, ont des biens meilleurs résultats. La simulation d’un modèle SEIR donne une idée de ce qui se serait passé en France si nous avions commencé le confinement une semaine plus tôt. Je ne vais pas donner le résultat (ce serait contraire à ce que j’énonce), ce qui est intéressant c’est que cette simulation est tellement surprenante qu’on (je en l’occurrence) pense tout de suite à une erreur, de programmation ou de modélisation. Ce qui signifie bien que malgré « toute ma culture en termes de systèmes complexes », mon intuition reste fausse. L’intérêt du modèle simpliste, c’est de pouvoir faire une simulation, pas à pas, de la propagation de l’épidémie, selon plusieurs scénarios. Ce n’est pas le résultat qui compte, c’est l’éducation (je vais y revenir dans la section suivante).

 

On retrouve dans ces expérimentations tout ce que la littérature nous apprend sur l’étude des systèmes complexes. En premier lieu, il faut agir avec humilité, à cause de ce que nous ne savons pas, mais surtout à cause de ce que nous croyons savoir et qui n’est simplement pas exact. Par ailleurs, il faut agir rapidement, avec des actions fréquentes et mesurées, en observant le système avec régularité … et une fréquence adaptée aux délais qui sont à l’œuvre dans le système. On retrouve ici ce qui fait la force des méthodes agiles dans les situations complexes et incertaines : agir par petites étapes au sein d’une boucle d’observation fréquente de l’environnement. Ce n’est pas un hasard si de nombreux journaux ont constaté que les gouvernements dirigés par des femmes semblaient avoir, en règle générale, des meilleurs résultats que ceux dirigés par des hommes. Ces gouvernements ont réagi plus vite, avec une série de mesures (plusieurs mesures moyennes plutôt qu’une grande annonce), à partir d’informations externes. On retrouve ce besoin d’humilité et d’actions prudentes mais décisives dans de très nombreux cas de systèmes complexes, comme la gestion des espèces protégées ou la gestion des forêts. Je manque de temps pour rentrer dans le détail, mais l’histoire de la protection de la nature est pleine d’actions trop drastiques et qui ignorent les complexes réseaux de causalité, prises par des hommes trop surs d’eux. Je vous renvoie à plusieurs billets écrits dans mes blogs, comme celui-ci.

 


 3.     Leçons collectives

 

 

Créer un modèle simpliste pour un système complexe est une expérience de pensée. La simplicité du modèle – on peut certaines fois parler d’élégance – permet de communiquer et de partager avec d’autres. L’expérience montre qu’il est très difficile de partager des résultats. Même si tous les modèles sont faux et que certains sont utiles, pour reprendre la phrase de Georges Box, les modèles simplistes sont particulièrement faux. Ce qui justifie la simplicité, c’est précisément le contexte de l’expérience de pensée, qui est par nature individuel.  Ces modèles sont également très « individuels » dans le sens ou créer un modèle simpliste c’est poser un grand nombre d’hypothèses simplificatrices, en fonction de ce qui vous intéresse. Le modèle COVID que j’utilise est grossier dans sa dimension temporelle (durées fixes) et relativement fin dans sa dimension de sociologie des contacts (différentiés par classe d’âge). La seule justification de ce choix est lié aux questions que je me posais il y a un mois, à ma représentation du monde.  Il serait injuste de dire qu’un modèle simpliste ne doit jamais être partagé, mais ce qu’il faut partager ce sont les intentions (et les questions), plus que les résultats de simulation. La première raison qui doit nous pousser à être suspicieux lorsque des résultats de simulation sont présentés comme des évidences scientifiques – ce qui a été une pratique quotidienne des médias depuis deux mois, et qui conduit à des revirements spectaculaires, par exemple sur le pourcentage de la population qui aurait été en contact avec le virus – est que les modèles sont – tous, en fait – simplistes. La seconde est que la principale création de valeur d’un modèle n’est pas un résultat statique, mais un ensemble de trajectoires dynamiques, dont la personne qui expérimente le modèle va extraire des connaissances, mais qui sont très difficiles à résumer en quelques lignes ou quelques diagrammes. C’est malheureusement une caractéristique des systèmes complexes, de ne pas se laisser réduire à une abstraction, une forme plus simple qui puisse être résumée en quelques mots.


Il existe une façon de circonvenir cette difficulté, c’est de transformer le modèle en jeu. On retrouve ici les conseils de Nassim Taleb sur l’utilisation des war games pour se préparer à des situations difficiles, non pas parce que le jeu permettrait de simuler ce qui va se passer, mais parce que l’expérience de la simulation développe la capacité à apprécier des situations complexes. Il y a une dizaine d’années, j’ai transformé une des simulations des canaux de distribution et politiques de commissionnement des opérateurs mobiles téléphoniques en jeu de rôle (l’approche GTES rend un tel jeu réactif, puisqu’il permet de simuler une réaction « presque intelligente » des autres acteurs). Ce jeu a été joué en comité de direction commerciale, non pas pour optimiser une décision, mais pour apprécier l’assemblage des réactions des concurrents comme des différents canaux à chaque décision. Traiter le modèle simpliste comme un jeu permet à la fois de prendre du recul sur les « résultats », et de jouer à plusieurs pour construire un apprentissage collectif. Ce qui compte, c’est que l’ensemble des joueurs puissent observer la simulation à l’œuvre, puisque l’apprentissage ne se fait pas sur le résultat mais sur la façon dont les règles simples du modèle peuvent engendrer une réalité complexe, ce qui est une façon élégante de dire « voir à quel point des petites erreurs peuvent avoir des grandes conséquences fâcheuses ». Comme me l’enseignait mon professeur Hervé Le Lous, il y a plus de 30 ans, dans ses cours d’analyse des décisions du Collège des Ingénieurs, seules les erreurs sanctionnées par une perte (l’amour-propre du joueur ou une perte financière) participent durablement à notre éducation (on ne corrige pas les modèles mentaux sans effort).

 

Il existe cependant une situation fréquente, où ce qui est appris grâce au modèle est communicable, car cela devient « évident à postériori ». Dans ce cas, on peut dire que la modélisation fait émerger un principe, puis sa propre post-rationalisation (une explication simple, qui ne fait pas recours à la simulation, et qui peut se partager). Mon expérience en 15 ans de modélisation est que cette situation est assez fréquente. La pratique de la simulation produit à la fois une connaissance « expérimentale », molle et floue, difficile à partager, et quelques idées simples (auxquelles on aurait pu accéder de façon plus directe, mais c’est plus facile à dire ensuite, une fois en face de « l’évidence »). Prenons le cas de l’efficacité de la politique « test & isolate ». Le nombre important de tests réalisés en Allemagne (Mars – Avril, par rapport à la France), pourrait faire penser qu’il s’agit d’un des facteurs d’explication des différences. La simulation montre qu’il s’agit en fait d’un tout petit facteur pendant la phase croissante de l’épidémie, qui ne devient efficace (comparativement à son absence) que lorsque l’épidémie se stabilise et surtout décroit. En fait, cette observation est facile à comprendre : le nombre de test en Allemagne est élevé par rapport à la France, mais faible par rapport à la population totale. Dans la phase de croissance exponentielle, la population en incubation est beaucoup plus grande que la population qui est suffisamment avancée pour faire réagir les tests, de même qu’il y a plus d’asymptomatiques que de symptomatiques – c’est la conséquence de la loi exponentielle du début de l’épidémie, en termes de modèles SEIR, on peut dire que E >> I). Isoler les sujets dont le test est positif a peu d’effet par rapport au nombre beaucoup plus important de contagieux non testés. Cela change dans la phase où nous sommes aujourd’hui, celle de la décroissance de la maladie. Plusieurs modèles SEIR sur internet ont reporté les mêmes résultats, et en fait il n’y a pas besoin de modèle pour le comprendre … si ce n’est que la simulation permet de « toucher du doigt » les tailles relatives des différentes populations infectées, contagieux, identifiés malades. Dans ce cas de figure, mon expérience est qu’on peut utiliser les résultats de simulation pour « illustrer » le principe qu’on cherche à partager : l’expérience – même si elle pourrait être jugée discutable par un observateur extérieur – est représentée par un schéma ou une courbe, qui produit le déclic dans la compréhension de l’auditeur, qui reconstruit son nouveau modèle mental avec ses propres outils logiques.

 

4.     Conclusion

 

Pour conclure, on peut dire que la modélisation simpliste, et la simulation qui lui est associée, permettent de déconstruire et reconstruire nos modèles mentaux. Une modélisation simpliste n’est pas un élément de prévision, et encore moins un élément de preuve de la compréhension du système qu’on étudie. Je vois ici un parallèle avec le rôle des « data scientists » dans l’analyse des données avec des approches d’apprentissage automatique : leur contribution fondamentale n’est pas de produire un « algorithme qui marche » (l’expérience montre qu’il y a des multiples façons et talents pour y arriver, qui relèvent plus de l’art que de la science ) mais bien d’expliquer « ce que marcher » signifie et d’invalider des approches qui conduiraient à des résultats peu fiables ou erronés. Le rôle de la science est bien plus d’éliminer les mauvaises idées que de produire des bonnes. De la même façon, les modèles simplistes servent à éliminer les mauvaises intuitions que nous développons facilement face à un système complexe. Nous avons du mal à percevoir une croissance exponentielle et des difficultés à comprendre une boucle de feedback avec un délai, lorsque les deux se combinent c’est encore plus difficile.  Le modèle simpliste est un outil de mise au point de notre représentation du monde, dans un mode agile. C’est un outil jetable : le résultat importe peu, c’est l’expérience acquise pendant la mise au point qui importe. C’est pour cela que je ne peux pas facilement transmettre ce que j’ai appris grâce à mon modèle simpliste SEIR, et que je ne veux pas partager les résultats des simulations. Je vous renvoie également à cet excellent article " Wrong but Useful — What Covid-19 Epidemiologic Models Can and Cannot Tell Us" qui traite également des modèles SEIR. Pour ceux qui sont curieux et se demandent à quoi ressemble un modèle « trivial et faux », ils pourront le trouver sur GitHub.