samedi, novembre 19, 2016

Le futur du travail et la mutation des emplois


1. Introduction


Le billet de ce jour rassemble un certain nombre de réflexions autour du « futur du travail ». Ce sujet est particulièrement d’actualité en ce moment, qu’il s’agisse de la presse ou de la préparation de la campagne présidentielle. En ce qui me concerne, j’ai eu la chance de passer une semaine à la Singularity University dans le cadre du Singularity University Executive Program, ce qui m’a permis d’approfondir mes idées sur le sujet. Ce billet reprend les points principaux que j’ai développé le 12 Octobre lors du séminaire de l’Académie des Technologies, lors d’une conférence intitulée « Emploi et travail dans un monde envahi par les robots et les systèmes intelligents ». Il s’inscrit dans la continuité d’un premier billet écrit il y a deux ans, mais j’ai affiné mon diagnostic et j’ai donc des convictions plus fortes et plus précises.

La première partie fait le point sur la question de l’automatisation – des robots à l’intelligence artificielle – et de son impact sur les emplois. Depuis la publication du rapport de Frey-Osborne en 2012, il y a eu de nombreuses réactions. La plupart sont conservatrices et prudentes, qu’il s’agisse du rapport de l’OCDE ou du livre récent de Luc Ferry. Je ne partage pas ce revirement comme je vais l’exprimer, particulièrement après avoir passé cette semaine à la Singularity University. Je vais au contraire développer une vision de l’évolution du travail dans laquelle l’homme est complémentaire de ces nouvelles formes automatisées de production et de création de valeur.

La seconde partie est une réflexion sur la société à la quelle conduit cette nouvelle vision du travail. C’est, par construction, une contribution à l’iconomie, c’est-à-dire l’organisation de l’économie dans le cadre d’une exploitation pleine et entière des bénéfices de la technologie de l’information, y compris dans ces capacités d’automatisation (lire la définition de Michel Volle). Je propose une vision « fractale / multi-echelle » de l’ iconomie qui réconcilie la domination des plateformes (« winners take all ») et le retour de la « localisation » (la priorité donnée à la communauté et au territoire ) face au désarroi (pour rester mesuré) que cette rupture de paradigme va produire. Dans la tradition des « power laws » de la nouvelle économie, les bassins d’opportunité créés par le progrès technologique ont une structure maillée et multi-échelle qui contient une « longue traine » de micro-opportunités pour microentreprises.

La troisième partie porte sur cette rupture, la transition de phase entre le modèle actuel de l’emploi qui est clairement à bout de souffle et un modèle possible, correspondant à la vision développée dans les deux premières parties. C’est la question fondamentale, et la plus difficile : même pour les partisans d’une vision optimiste du progrès technologique dont je fais partie, la transition qui s’annonce est complexe, voire brutale. Même si le titre du livre de Bernard Stiegler « L’emploi est mort, vive le travail ! » contient un message positif, ce changement n’est pas moins qu’une révolution, qui est par ailleurs déjà engagée. Face à un changement qui s’accélère et des vagues d’automatisation nouvelles qui se dessinent, je suis persuadé que le monde politique a un rendez-vous avec l’Histoire, et qu’un certain nombre de mesures sont nécessaires pour éviter des scénarios noirs qui sont fort bien décrits dans des ouvrages de science-fiction. Il est possible de construire une société équilibrée autour de l’iconomie, mais la tendance naturelle du techno-système, sans intervention et régulation, est d’aller vers la polarisation et l’affrontement.

J’ai résisté à la tentation facétieuse et opportuniste de nommer ce billet « comprendre les causes profondes de l’élection de Donald Trump », mais je pense néanmoins qu’une des causes essentielles de cette élection, qui semble défier le sens commun, est qu’une grande partie des électeurs sentent plus ou moins confusément qu’un monde est en train de se construire dans lequel ils n’ont plus de place. Ce n’est pas une « simple » réaction à la désindustrialisation, c’est une peur de se retrouver « assignés à résidence », pour reprendre les mots d’Emmanuel Macron, sans utilité pour cette nouvelle société technologique et automatisée. Le défi qui est devant nous est de rendre l’iconomie « inclusive », c’est-à-dire avec une place pour chacun qui lui permette de contribuer au travers de son activité.


2. Automatisation, Intelligence Artificielle et destruction d’emploi : état des lieux



2.1. Une révolution numérique qui détruit plus d’emplois qu’elle n’en crée


Depuis l’étude « The Future of Employment » de Carl B.Frey et Michael A. Osborne, qui a annoncé que 47% des emplois seraient menacés aux US par l’automatisation, le débat est intense. D’un côté, il existe de nombreuses études similaires, comme par exemple celle sur le marché UK qui arrive à des résultats du même ordre de grandeur (au UK ou aux US). D’un autre côté, on trouve des études plus nuancées et moins pessimistes, comme celle de l’OCDE ou celle de McKinsey. C’est ce qui fait prendre à Luc Ferry une position plus rassurante dans son livre « La révolution transhumanisme ».  Je ne partage pas ce nouvel optimisme. Un des arguments est qu’une partie des tâches, et non pas des emplois, sont touchés. Mon expérience est que les entreprises ont acquis la capacité à redistribuer les tâches pour transformer les gains en efficacité en réduction de coûts salariaux, en dehors d’une hypothèse de croissance.

Ce qui me range dans le camp de l’étude Frey-Osborne, c’est que les arguments des conservateurs reposent sur une analyse du passé sur ce qu’on peut attendre des progrès de l’Intelligence Artificielle. Il me semble imprudent de s’appuyer sur toutes les promesses non-tenues des décennies précédentes pour en conclure que l’automatisation poursuit une lente progression « as usal ». Je vous renvoie au deuxième livre de Erik Brynjolfsson et Andrew McAfee, « The Second Machine Age », pour vous convaincre qu’une nouvelle vague d’automatisation arrive à grand pas, avec une accélération spectaculaire lors des dernières années de ce qui est possible. Les auteurs reviennent en détail sur des avancées telles que les diagnostics médicaux par une intelligence artificielle, les véhicules autonomes ou les robots qui écrivent des articles pour les journaux. Pour reprendre une de leurs citations : « Computers and robots are acquiring our ordinary skills at an extraordinary rate”. Je viens de passer une semaine à la Singularity University et les exemples plus récents présentés pendant cet “executive program” renforcent et amplifient les messages du “Second Machine Age”. Il est assez juste de remarquer, comme le fait Erik Brynjolfson dans un de ses exposés récents, que nous nous ne sommes pas « en crise, mais en transformation », mais cela ne change pas grand-chose au défi qui nous est posé. Dans ce même livre les auteurs nous disent que la transformation produite par la technologie est bénéfique … mais pose des « défis épineux ».

Les usines « sans humains » sont déjà là, les exemples sont multiples, de différentes tailles et dans différents domaines. L’exemple de l’usine de Sharp pour produire des dalles LCD, que j’ai pu visiter personnellement, est spectaculaire : moins de 20 personnes pour plus d’un kilomètre carré d’usine, cette visite, qui date déjà de plusieurs années, m’a profondément marquée. L’exemple de l’usine de fabrication de Tesla est non moins exemplaire, à la fois par le choix de la relocalisation et l’automatisation la plus poussée possible. Le cas de l’usine de Sélestat du groupe SALM est un peu moins spectaculaire, mais tout aussi instructif.  Le fait que le monde change aussi vite sous nos yeux doit d’ailleurs nous conduire à beaucoup de prudence sur les études que je viens de citer. Comme le remarque Neil Jacobstein, que j’ai eu le plaisir d’écouter sur ce sujet à la Singularity University, ces études s’appuient sur une continuité des types de tâches à effectuer (ce qui permet d’appliquer le peigne de l’analyse de la future capacité à automatiser), une sorte de « everything being equal », qui est probablement valide sur une courte échelle (quelques années) mais beaucoup plus discutable sur quelques décennies.

2.2. Il va falloir du temps pour remplacer complètement les humains dans les processus


Comme je le remarquais dans mon billet précédent, la route vers l’automatisation n’est pas simple. Les annonces célèbres de Foxcon qui  voulait remplacer ses 300 000 employés par un million de robots n’ont pas été suivies d’effets notables pour l’instant. En revanche, l’automatisation des entrepôts d’Amazon avec des robot KIVA  est une réalité, tout comme celle des usines « sans humains » que nous avons mentionnées. Cette réalité contrastée s’explique par le fait que l’automatisation des tâches non répétitives reste complexe. Plus précisément, les progrès en apprentissage – en particulier le deep learning – sont spectaculaires lorsque la question à résoudre est précise et lorsqu’il existe beaucoup de données pour apprendre. En revanche, s’il y a peu de données (s’il faut extrapoler sur peu de faits, le « sens commun » devient fondamental et cela reste un sujet difficile) et surtout si l’objectif est mal défini (et encore plus lorsqu’il s’agit de définir ses propres objectifs), l’être humain conserve pour quelques temps un avantage sur la machine. Ceci conduit à un article récent de McKinsey intitulé  « Where machines could replace humans—and where they can’t (yet) » qui aboutit au même ordre de grandeur sur ce qui est substituable et ce qui ne l’est pas. Pour comprendre ce qui est déjà possible et ce qui ne l’est pas encore, je vous recommande « What Artificial Intelligence Can and Can’t Do Right Now » de Andrew Ng. Mais les limites d’aujourd’hui ne sont pas celles de demain !

Une des conséquences de l’état de l’art en IA est que l’automatisation des emplois peut commencer par des emplois d’experts et non de généralistes. C’est ce qu’expliquent Brynjolfson et McAffe : «  As the cognitive scientist Steven Pinker puts it, “The main lesson of thirty-five years of AI research is that the hard problems are easy and the easy problems are hard. . . . As the new generation of intelligent devices appears, it will be the stock analysts and petrochemical engineers and parole board members who are in danger of being replaced by machines. The gardeners, receptionists, and cooks are secure in their jobs for decades to come.”  C’est précisément ce qui m’a frappé pendant ma semaine à la Singularity University : les exemples abondent de domaines pour lesquels l’algorithme fait mieux que l’humain, mais ce sont précisément des domaines d’experts avec une question bien définie (quel portefeuille d’investissement construire, quel diagnostic sur une tumeur possiblement cancéreuse, …) et une très grande volumétrie de données disponibles. Grace au groupe de travail de l’Académie des Technologies qui poursuit son enquête sur les avancées “récentes” de l’IA et de l’apprentissage, ma conviction se conforte que, même si la date est incertaine, la tendance à l’automatisation des emplois du rapport Frey-Osborne est la bonne.

Cette notion d’automatisation des emplois est un raccourci qui est probablement trompeur, dans le sens que plutôt d’avoir des robots et des logiciels d’intelligence artificielle qui vont remplacer des humains un par un, c’est l’environnement complet qui devient “intelligent”. La combinaison de robots, d’objets connectés, de senseurs, et de logiciels “intelligents” ubiquitaires (répartis depuis le cloud jusque dans l’ensemble des processeurs invisibles qui nous entourent) crée l’environnement de travail “assisté” dans lequel moins d’humains réalisent plus de choses, mieux et plus vite.  L’article de McKinsey, « Four fundamentals of workplace automation » explique que « Jobs will be redefined before they are eliminated » et insiste sur cette transformation progressive des activités dans ce nouvel environment. Cette transformation par l’automatisation ubiquitaire est plus “douce”, mais elle n’en est pas moins disruptive.

2.3. Transformation du paysage de l’emploi


Dans le précédent billet j’ai déjà cité abondamment l’article de Susan Lund, James Manyika et Sree Ramaswamy, intitulé « Preparing for a new era of work » (Kc Kinsey Global Institute), qui me semble profondément pertinent. Pour simplifier voire caricaturer, il propose de séparer les emplois en trois catégories : la production, les transactions et les interactions. Les deux premières catégories sont celles qui vont être massivement touchées par l’automatisation : les emplois de production sont – dans leur grande majorité – remplacé par des robots tandis que les emplois liés aux transactions vont être décimés par l’utilisation de l’intelligence artificielle, même si cela prendra un peu plus de temps – cf.la section précédente. Il reste, pour un temps plus long, le domaine des métiers d’interaction qui peut résister plus longtemps. Ce mot « interaction » serait complexe à définir puisqu’il fait référence aux interactions entre humains et s’oppose à la catégorie précédente par un contenu « non-transactionnel » sur un registre émotionnel (il y a une certaine circularité dans l’argument, et des spécialistes de robotique m’ont fait remarquer que de nombreux robots ont précisément un objectif d’interaction, y compris avec des humains). Je trouve néanmoins cette distinction intéressante, et je suis plutôt d’accord avec la proposition des auteurs. Les emplois de demain seront très probablement caractérisés par les échanges entre humain dans des dimensions émotionnelles, affectives, artistiques qui dépasseront le cadre de l’automatisation tout en profitant de ce nouvel « environnement intelligent ». Par exemple, le jardinier, le masseur ou le plombier de demain seront des métiers technologiques, collaboratifs et sociaux, dans le sens ou l’environnement intelligent déchargera de certaines activités pour se concentrer sur l’essentiel (par exemple, le sens et le plaisir du jardin).


Dans cet univers qui se dessine, tout ce qui s’automatise devient une commodité, la valeur perçue se trouve dans les émotions et les interactions. C’est précisément une des thèses du best-seller déjà ancien de Daniel Pink, « A Whole New Mind », qui caractérise les métiers de demain par une « prévalence du cerveau droit sur le cerveau gauche » - à ne pas prendre au pied de la lettre mais dans le sens communément admis même si discutable. On retrouve dans son livre les talents de demain comme le « story telling », le « design », la « créativité », l’empathie ou le jeu. Ces métiers d’interaction de demain ne sont pas issus de nouveaux domaines à créer, mais pour leur grande majorité la continuité des métiers d’interaction d’aujourd’hui.  Santé, bien-être, ordre public, éducation et distraction vont continuer à être les principaux fournisseurs de travail pour les décennies à venir.

Le jardinier du futur utilise probablement un ou plusieurs robots, mais il vend une « expérience » - dans le sens où il raconte une histoire. Ce jardinier n’est pas forcément isolé, il peut profiter d’une communauté qui lui fournit du contenu – une éducation permanente – qui lui permet de vous toucher en faisant le lien entre votre jardin et vos vacances. Il peut également profiter d’une plateforme technologique qui lui fournit les robots autonomes qui vont tondre la pelouse ou tailler la haie. Il est probable également que ce jardinier « programme » le système (jardin + robots + environnement) avec la parole. Pour reprendre une citation d’un des membres de Singularity University : « We won’t program computers we’ll train them like dogs”.  Je crois beaucoup plus à cette vision qu’à la théorie selon laquelle nous aurons des ordinateurs tellement intelligents que cela signifierait la fin de la programmation. Ce qui est sûr, c’est que le sens de “programmer” et de qu’est le “code” va évoluer, mais l’activité de programmation d’expérience va au contraire se développer de plus en plus au fur et à mesure que l’environnement devient intelligent. Le robot que le jardiner va utiliser sera connecté et le dialogue avec le jardinier sera plus riche qu’une simple séquence d’opérations contextuelles. Pour rester dans la veine du Clue Train Manisfesto, je propose l’aphorisme suivant pour représenter la programmation de demain : « experiences are grown from conversations ».


3. Iconomie: Vision cible positive d’une société très fortement automatisée



3.1. Un maillage de plateformes et de micro-entreprises


Ma vision du paysage de l’emploi est un réseau multi-échelle maillé de structures de toutes tailles, depuis les grandes entreprises multinationales d’aujourd’hui jusqu’aux autoentrepreneurs, dans lequel le mouvement de polarisation (consolidation des grandes plateformes et multiplication des pico-entreprises) se poursuit et s’amplifie. Le point de départ de mon raisonnement est que nous aurons toujours des entreprises dans 20 ou 30 ans, et que le phénomène d’ubérisation du travail n’aura pas dissout le concept de l’entreprise. Je n’y reviens pas, j’ai traité en détail ce sujet dans mon billet précédent. Pour résumer, la complexité croissante du monde exige le travail synchrone, ce que remarquent tous les auteurs de la Silicon Valley, d’Eric Ries à Eric Schmitt. Ce sujet fait débat, ma position consiste à dire que les coûts de transaction, pour reprendre l’analyse de Coase et Williamson, reste minimisé lorsque les équipes cross-fonctionnelles modernes de développement produit sont co-localisées, synchronisées par des rituels et une vision « incarnée » commune et unifiée par un ensemble de techniques qui font des lieux un espace collaboratif (le « visual management » étant un exemple). L’évolution des technologies de communication (de la téléprésence à Hololens) déplace les frontières de ce qui est possible à distance en « mode plateforme », mais le même progrès technologique renforce le potentiel de l’environnement intelligent comme outil collaboratif.

La mondialisation et la numérisation conduisent à la concentration. Ceci est très bien expliqué par les penseurs de l’iconomie comme Michel Volle. Les raisons sont multiples et profondes. L’économie numérique est principalement une économie de coûts fixes, ce qui favorise l’économie d’échelle. Bien plus important encore, les effets de réseaux – en particulier dans les marchés biface et dans le développement d’écosystèmes autour de plateformes - et les lois de réseau de type Metcalfe donnent un avantage important au plus gros joueur (souvent le premier mais pas forcément). Je vous renvoie à l’analyse de la valeur des réseaux sociaux pour voir un exemple ou les équations de renforcement de la position dominante sont encore plus forte que la loi de Metcalfe.  Dans le livre de Brynjolfson et McAffee, on lit: “Each time a market becomes more digital, these winner-take-all economics become a little more compelling”. Cette concentration ne produit pas plus d’emplois, d’autant plus qu’elle est nourrie par l’augmentation exponentielle des capacités technologiques et par l’automatisation que nous venons d’évoquer dans la partie précédente.

Heureusement, la concentration des plateformes conduit également à la croissance des écosystèmes qui leur sont associés, ce qui peut créer des opportunités pour une multiplicité d’acteurs locaux, tout comme un arbre qui grandit porte plus de feuilles. Cette croissance de la « frontière » peut poser question – elle peut sembler marquée par un optimisme technophile naïf -, mais elle est nourrie par l’explosion exponentielles des capacités technologiques et sur la tendance de fond (qui est liée à cette explosion) de mieux servir les individus (le mythique « segment of one ») et les communautés. Le second point va être développé dans le reste de cette deuxième partie, revenons donc sur le premier. Prenons justement l’exemple des capacités d’Intelligence Artificielle développées et exposées par Google (cf. TensorFlow). Il est plus que probable que si cette démarche est couronnée de succès, elle va contribuer à la croissance forte de Google. Mais elle va également ouvrir des champs possibles à un rythme supérieur que ce que Google peut produire, ce qui signifie qu’une partie encore plus importante de valeur va apparaitre « à la frontière », lorsque d’autres acteurs vont utiliser ces technologies mise à disposition par Google pour résoudre d’autres problèmes que ceux qui intéressent Google. On voit la même chose avec la croissance d’iOS comme plateforme mobile : au fur et à mesure que les capacités sont ajoutées dans la plateforme de développement de l’iPhone – on pense ici bien sûr à Siri – le domaine fonctionnel rendu possible à la communauté des applications mobiles augmente plus vite que ce qu’Apple en retire pour ses propres fonctions.

3.2. Economie Quaternaire et services à la personne


L’économie quaternaire, un concept que nous devons en particulier à Michelle Debonneuil, propose une extension des trois secteurs traditionnels – primaire pour les matières premières, secondaire pour la fabrication et tertiaire pour les services - à un nouveau domaine dont les produits ne sont ni des biens, ni des services, mais « de nouveaux services incorporant des biens, la mise à disposition temporaire de biens, de personnes, ou de combinaisons de biens et de personnes ». L’évolution vers l’économie quaternaire est fort logiquement liée, comme le souligne Michelle Debonneuil, aux progrès des TIC qui permettent d’apporter des services véritablement personnalisés sur le lieu précis où ils sont nécessaires, y compris dans gestions des femmes et des hommes qui rendent ces services de façon courte et ponctuelle. Le développement de l’économie quaternaire est indissociable du domaine des « services à la personne », dont l’essor est l’aboutissement naturel d’une société post-industrielle. Cet essor est fort logiquement accéléré par l’automatisation telle que décrite dans la première partie puisque ces « services à la personne » sont les domaines dans lesquels les humains peuvent exercer une supériorité sur la machine.

Ces domaines sont fort nombreux et peuvent, sous certaines conditions, permettre la pleine occupation, sinon le plein emploi, de la population déplacée par l’automatisation. Listons les plus évidents : l’alimentation (dans sa phase « finale » de service à la personne, de la cuisine au restaurant), l’habillement, l’aménagement des habitations, la médecine, le bien-être, l’éducation et la culture, la distraction, l’art, etc. Pour la plupart de ces domaines, le 20e siècle a été un siècle d’industrialisation et d’orientation vers les produits. L’économie quaternaire remet le client au centre de l’expérience et s’intéresse plus au service reçu et perçu qu’aux produits sous-jacents. C’est cette remise au centre de l’interaction entre l’utilisateur et le fournisseur qui permet de « réinventer » des métiers de services à la personne. Cette analyse est partagée par Erik Brynjolfson et Andrew McAffee qui écrivent:  «  Results like these indicate that cooks, gardeners, repairmen, carpenters, dentists, and home health aides are not about to be replaced by machines in the short term ».

On pourrait me faire remarquer que cette vision de l’emploi en 2030, qui recoupe fortement des domaines de « service publics », conduit plutôt à l’augmentation du nombre de « fonctionnaires » qu’à leur diminution. Si le terme de fonctionnaire désigne de façon très large une personne financée par la collectivité, c’est probablement exact. Cela ne signifie pas que le nombre de personne ayant le statut de fonctionnaire doive augmenter, ni que le budget correspondant doive faire de même (ce qui semble clairement impossible de toute façon). Il a de nombreuses façons de contourner ce paradoxe, par exemple en appliquant à l’Etat les principes de l’Entreprise 3.0  pour réduire le poids de l’appareil de contrôle par rapport à l’appareil opérationnel. Ce n’est pas utopique, il existe de multiples exemples d’application des nouvelles structures de management dans les services publics dans d’autres pays. On peut également penser que les nouveaux modes de travail que nous allons continuer à décrire s’appliquent parfaitement à un grand nombre de services publics, à l’exception d’un tout petit nombre de fonctions régaliennes. Je pourrais pousser la malice à faire l’hypothèse que le déséquilibre du budget de l’Etat vient du trop grand nombre de personnes « payées pour leur cerveau gauche » (une autre façon de parler de ceux qui analysent et contrôlent au lieu de faire). Enfin, le grand mouvement de l’automatisation des fonctions transactionnelles évoqué dans la première partie offre une possibilité à l’Etat de redistribuer ces économies de fonctionnement vers des rôles d’interaction et de lien social.


3.3. L’artisanat et la personnalisation de masse


Je reviens ici sur une idée profonde de Avi Reichental - dont j’ai déjà recommandé l’exposé TED - : La production de masse est une parenthèse historique, et nous allons pouvoir revenir au confort du sur-mesure dans de nombreux domaines grâce aux progrès de la technologie, en particulier l’impression 3D. Avi Reichental illustre cette idée sur le principe d’une chaussure qui combine l’impression 3D d’une semelle uniquement adaptée à la bio-morphologie de l’utilisateur avec l’assemblage/fabrication locale. La personnalisation de masse est due à la fois au progrès technologique (numérisation de la conception, impression 3D, automatisation de l’assemblage, …) qui fait émerger des plateformes mise à disposition du plus grand nombre, et le besoin de retrouver une expérience sociale de proximité. Il n’y a donc pas que l’approche technologique : un certain nombre de métiers d’artisanat d’art pourraient redevenir pertinents.

L’idée que nous allons tous vivre de notre créativité tandis que les machines s’occuperont de la production est naïve et probablement fausse. Le tissu de multinationales évoqué dans la première partie a besoin de nouveaux talents, et en particulier de créatifs et de designers, mais dans un petit nombre par rapport aux laissés pour compte de l’automatisation. En revanche, le monde « frontière » des opportunités de services, qu’il s’agisse d’adaptation au besoin d’une communauté ou d’un individu, ou encore d’accompagnement et de mise en scène –  par exemple, l’art de la parole a toujours été associé à la vente de vêtements - a une structure beaucoup plus riche et étendue que l’on pourrait qualifier de « fractale » ou de « multi-échelle ». Dans ce monde de l’interaction, il existe des opportunités à différents niveaux de talents, qui peuvent coexister. Le service d’interaction se déplace difficilement (en tout cas avec un coût) contrairement à une expérience digitale. Un service moyen fourni par un talent médiocre peut coexister avec un service plus élaboré. Les « artisans de la personnalisation » de masse peuvent opérer sur des échelles géographiques différentes selon leur talent, dessinant une « power law »  des bassins de chalandise. Cette coexistence ouvre la voie, surtout avec le support économique de l’état sur lequel nous allons revenir, à un marché abondant de services à la personne de toutes sorte. Cette renaissance de « l’artisan de proximité » risque de se trouver facilité par une pression communautaire – que l’on commence déjà à voir à l’œuvre - et une priorisation de ce qui est local sur ce qui est global, en contre-réaction à la mondialisation.

Cette personnalisation des services à la personne est donc une double conséquence du progrès technologique : à la fois parce que le monde numérique facilite la personnalisation (dimension technique) mais aussi parce que la transformation due à l’automatisation (première partie) va rendre les services personnalisés d’interaction à la fois nécessaires et accessibles (nous reviendrons sur la dimension économique dans la dernière partie).  Si l’on applique cette idée de la personnalisation de masse à l’ensemble des domaines de services de la section précédente, on voit émerger ce qu’on pourrait qualifier de démocratisation de « privilèges aristocratiques du 19e siècle ». Non seulement l’accès aux vêtements, aux meubles sur mesure pourrait redevenir courant (ce qui était le cas il y a un siècle), mais les services d’un cuisinier, d’un tuteur, d’un coiffeur ou d’un masseur à domicile pourraient se démocratiser. De façon plus spectaculaire, la contribution d’un revenu universel pourrait permettre de rendre les métiers et les œuvres d’art accessible à (presque) tous. Dans un système économique qui permet à chacun de disposer d’un premier niveau de revenu garanti, il est possible à un beaucoup plus grand nombre d’artistes amateurs de vivre de leur art, et donc de permettre de la sorte à des citoyens ordinaires d’avoir le plaisir de posséder un tableau – par exemple – unique.




4. Les défis de la transition : accompagner le choc d’un changement de civilisation


4.1 La menace des robots de compagnie anthropomorphes       


L’essor de la robotique au Japon montre que l’interaction émotionnelle avec des humains n’est pas un champ exclu aux robots. En fait ce domaine n’est pas particulièrement complexe, il n’est pas très difficile de donner des émotions aux robots et aux programmes – c’est un champ de recherche et d’expérimentation en plein essor - et il est encore moins difficile d’apprendre aux programmes à « lire nos émotions ». Comprendre nos émotions à partir d’un signal sonore (notre voix) ou visuel (la vidéo de notre visage) est un exemple type de problème de reconnaissance que nous avons évoqué dans la première partie, avec des réponses claires et des milliards d’exemple. Ce n’est pas une surprise de constater que le deep learning donne déjà d’excellent résultats, que chacun peut tester grâce à des API ouvertes (ou en téléchargeant « Moodies » sur son smartphone). Pire encore, il est très facile de tromper nos neurones miroirs avec des têtes artificielles qui s’adaptent à nos expressions faciales. J’en ai fait l’expérience surréaliste avec une tête artificielle fort simple il y a déjà 10 ans dans un laboratoire IBM. Pour résumer, il ne faut pas considérer que le domaine « emploi d’interaction » est hors de portée des progrès de l’automatisation.



En revanche, il y a un enjeu majeur de société car l’automatisation de l’interaction n’est pas un progrès en soi. Contrairement à la production et aux transactions, les gains en vitesse et précision qui sont souvent les objectifs de l’automatisation ne sont pas des enjeux majeurs. Il y a donc plus de liberté pour faire de l’automatisation un choix de société. L’enjeu est tout simplement d’accompagner une transformation plus harmonieuse vers l’iconomie en conservant pour de nombreuses décennies la primauté de l’humain dans les métiers de l’interaction. Si la société laisse le domaine de l’interaction être envahi par la robotisation, nous allons au-devant d’une véritable crise. Laissés à la loi du marché et du possible technologique, ces robots vont apparaitre et nous obtiendrons dans le meilleur des cas une société à deux vitesses et une multitude d’exclus. Dans le pire des cas, les tensions sociales seront insupportables et cela nous conduira à la guerre civile. Le Japon est un cas particulier car il y a un fort déficit démographique à cause du vieillissement de la population, mais de façon générale et simplifiée, il faut réserver les métiers d’interaction aux humains déplacés des fonctions de production et de transaction.

De fait, étant plutôt optimiste de nature, je pense que les pays démocratiques se protégeront en réglementant l’utilisation de robots humanoïdes. Cette réglementation n’est pas forcément une simple interdiction, cela peut être une forme de taxation qui permet à l’humain de rester compétitif par rapport à la machine. Il y a probablement un équilibre entre une pression sociale de conserver des humains dans ces emplois – et on peut s’attendre à des réactions violentes face aux robots s’ils sont introduits dans des « customer-facing jobs » dans une société en crise du travail –, une fiscalité du travail qui reconnait l’interaction et la substitution de la machine par l’homme, et la réduction du coût du travail humain au moyen du revenu universel sur lequel je reviens dans la section suivante. Ce scénario de contrôle de l’utilisation de robots humanoïdes n’est ni simple ni tranquille, la protection qui sera réclamée par la population face à l’automatisation des fonctions de production et de transaction peut prendre des formes de protestations régressives, allant jusqu’à des surprises importantes lors d’élections J Au risque de me répéter, vouloir freiner les robots humanoïdes n’est pas un jugement technologique (le développement de ce type de robots est non seulement possible, il est inévitable), ni moral (il n’y a rien de répréhensible en soi à vouloir créer des machines avec lesquelles il est plus facile de communiquer car elles nous ressemblent) mais systémique. Il ne s’agit que d’un réglage de vitesse de flux, au sein d’un écosystème avec des activités qui disparaissent et apparaissent, mais qui me semble essentiel. Il faut se donner le temps sur plusieurs générations pour absorber les transformations que la technologie va rendre possible. Notons également qu’il est quasi-impossible de lutter contre l’automatisation des fonctions de production et de transaction dans une économie mondialisée (il y aura toujours un acteur quelque part pour tirer le meilleur parti économique de la technologie), tandis que l’activité d’interaction n’est pas dé-localisable par définition et reste donc sous la juridiction économique des états.

4.2. Un revenu universel pour permettre à chacun d’exister


Le revenu universel – ou revenu de base, en suivant l’expression anglaise « Universal Basic Income » - apparait naturellement comme solution pour faciliter la transition vers l’iconomie. Un des spécialistes mondiaux du sujet, Guy Standing, a introduit le revenu universel pour éviter le « précariat » qui est précisément la condition des homme déclassés dans une société qui n’a plus besoin de leur activité : « [precariat] specifically, is the condition of lack of job security, including intermittent employment or underemployment and the resultant precarious existence ». Le revenu universel consiste à garantir à chacun un niveau minimum de ressources, sans conditions, pour permettre à tous de vivre dignement. Il est souvent présenté, comme par exemple par Gaspard Koenig qui est un des spécialistes français, comme un « nouveau droit de l’homme ». Je vous renvoie au site « Génération libre » pour plus de détails sur LIBER. Le sujet du revenu universel s’est d’ailleurs invité fort logiquement dans la campagne politique, avec des prises de positions de Benoit Hamon et de Nathalie Kosciusko-Morizet, ainsi que de notre premier ministre.  En suivant les pas de Guy Standing, ces femmes et hommes politiques constatent l’éclatement du marché du travail – sur lequel nous reviendrons dans la prochaine section-, la désindustrialisation et la création de laissés pour compte par une vague d’automatisation qui ne fait que s’amplifier. Le revenu universel est donc un premier réflexe de protection par la solidarité, ainsi, dans le cas de la France, une remise à plat d’un système de protection sociale complexe qui contient déjà les germes d’un revenu universel de base.

D’un point de vue systémique, l’objectif du revenu universel n’est pas de permettre l’oisiveté pour tous, mais de déplacer les contraintes de rentabilité des activités humaines. Très logiquement, c’est une façon de redonner au travail humain un peu de compétitivité vis-à-vis de celui de la machine. Il est donc logique de penser au revenu universel pour lutter contre les effets indésirables d’une automatisation trop rapide. De fait, l’objectif du revenu universel est de déplacer « une barrière de potentiel » pour permettre au plus grand nombre d’accéder et de réussir dans un statut d’entrepreneur.

Cette idée de « barrière de potentiel » est une métaphore qui illustre le fait qu’il existe des multiples opportunités de travail – en particulier dans les services à la personne pour tous – mais nous n’avons pas tous le talent d’en faire une activité rentable économiquement. Le revenu universel « déplace la barrière de potentiel » dans le sens où il permet à un plus grand nombre d’autoentrepreneurs de produire un complément de revenu à partir de leurs talents, à la fois en diminuant la prise de risque et le volume d’affaire à générer pour que l’autoentreprise soit viable. Cette position qui voit le revenu universel non pas comme une nouvelle forme d’assistance mais comme un démultiplicateur est l’objet de nombreux débats voire de nombreuses critiques. Je reste cependant convaincu qu’il y a une véritable adéquation avec le concept de la distribution « multi-échelle » (ou de « power law ») des talents et des opportunités, évoqué dans la deuxième partie. Autrement dit, pour que le « gisement des services à la personne » représente un « bassin d’activité suffisamment vaste » pour offrir du travail à la majorité des citoyens, il faut un modèle économique qui permette de vivre dès que le service fonctionne sur une micro-communauté, ce qui est rendu possible par le revenu de base universel. Je conjecture que la structure cible des services à la personne dans une iconomie de pleine activité est une structure de petits mondes au sens de Duncan Watts (ce qui nous renvoie à des billets très anciens de ce blog).

En effet, il ne s’agit pas d’assurer « simplement » à chacun un revenu de base, mais véritablement une opportunité de « Universal Inclusive Contribution » - pour faire le parallèle avec le concept original de « Universal Basic Income » : permettre à chacun de contribuer à la collectivité, de trouver sa « place » par un travail qui contribue à la société, ce que permet le modèle fractal des services d’interaction. Autrement dit, le revenu universel doit être l’opposé de l’assignement à résidence dont parle Emmanuel Macron, sans être non plus un travail « bénévole forcé ». Lors de mon intervention du 12 Octobre, je me suis permis d’utiliser l’image du statut « d’intermittent du spectacle » pour tous J Le débat en France autour de ce statut fait que cet emprunt n’est probablement pas judicieux, mais il y pourtant dans ce statut de nombreux points positifs puisqu’il joue précisément, avec succès, un rôle incitatif en fournissant un complément de revenu. Ce statut permet d’avoir une population active employées dans les métiers du spectacle qui est nettement supérieure à ce que la loi du marché produirait (une autre forme de « déplacement de barrière de potentiel »). Il y a aujourd’hui environ un million d’auto-entrepreneurs, il faut créer les conditions pour une augmentation de presque un ordre de grandeur. Je n’ai pas de « boule de cristal », mais il me semble clair que la répartition des statuts entre employés, « freelance » (cf. la section suivante) et autoentrepreneurs va devenir beaucoup plus équilibrée en 2030 qu’elle ne l’est aujourd’hui.


4.3. Fin de l’emploi, vive le travail ! Un nouveau contrat social


La diminution des emplois salariés a déjà commencé. J’emprunte le titre de cette dernière section au livre de Bernard Stiegler.  L’exemple du « cuisinier à domicile » permet de comprendre ce concept un peu théorique de « talent multi-échelle ». Le cuisinier médiocre est condamné à ne faire souffrir que ses proches de son absence de talents, mais celui qui a un petit talent peut l’exercer dans son voisinage proche (par exemple son immeuble) comme un service de proximité – pour dépanner. L’échelle suivante, d’autoentrepreneur non rentable est de procurer ses services dans son quartier. Plus le domaine grandit, plus on se rapproche d’un véritable statut d’artisan-entrepreneur. Un talent reconnu à l’échelle d’une ville permet de créer une entreprise traditionnelle, et on passe ensuite dans le domaine du professionnel reconnu. Compte-tenu du niveau de vie des Français, il y a peu d’emplois de cuisinier à domicile – même si l’on introduit des plateformes d’intermédiation de type Uber – mais si l’on regarde les opportunités créées par les vies complexes des salariés, il y a beaucoup de travail. C’est l’enjeu du modèle « intermittent du service à la personne ».
S’il est possible de fournir un travail pour tous, il semble en revanche probable que le modèle économique que je viens d’esquisser s’accompagne d’une décroissance des emplois, ce qui est la thèse du livre de Stiegler.  Thierry Breton lors de son intervention pendant le même séminaire du 12 Octobre nous a parlé de la « Gig economy ». Le président d’ATOS constate qu’un nombre croissant des jeunes recrutés ne souhaitent plus un emploi salarié et préfère la liberté d’un mode « freelance ». Pendant la semaine à la Singularity University, j’ai entendu le même message : le « freelance » représente déjà 35% de la force de travail en 2015 et les spécialistes prévoient 50% en 2020. Cette transformation illustre la complexité et la richesse des entreprises qui combinent la force des « liens forts » – des noyaux de permanents unis par les valeurs de la marque – et des « liens faibles » – l’appel à la richesse encore plus grande des talents extérieurs à l’entreprise. J’utilise ici bien évidemment l’appellation de liens forts et faible en référence à la sociologie, un emprunt que j’ai fait de nombreuses fois.

Il ne faut pas se crisper sur cette dualité des statuts : elle correspond à des aspirations différentes pour ceux qui travaille et à un besoin des nouvelles formes d’entreprises. Dans le best-seller « Exponential Organizations », les auteurs décrivent l’organisation idéale, celle qui permet de s’adapter aux flux continu du changement exponentiel des technologies, avec des modes de travail qui reflètent une partie des idées exprimées ici. Nathaniel Calhoun a reconnu pendant cette semaine à la Singularity University que ce nouveau mode d’organisation crée une contrainte sur les employés:  «  Exponential Organizations worsens the fate of labor ». Les auteurs de « Exponential Organizations » proposent l’acronyme SCALE qui signifie : "Staff" à la demande, Communautés, Algorithmes, effet de Levier sur les ressources et Engagement. IDEAS reflète les principes fondateurs : Interfaces (pour attirer les contributions externes),  Dashboards (pour décider à partir des mesures), Expérimentation, Autonomie et Social (Enterprise 2.0). Ces nouveaux modes d’organisation sont des leviers d’adaptabilité et de flexibilité, mais je rejoins Luc Ferry lorsqu’il souligne le besoin de régulation à cause de la brutalité du capitalisme à l’œuvre dans la révolution digitale (depuis les conditions Uber/Amazon jusqu’aux politiques d’évasion fiscale des GAFAs).

Pour conclure, il convient de souligner que ce nouveau mode de vie, en dehors du statut « traditionnel » de salarié, peut être aspirationnel.  Le travail de cuisinier à domicile est un travail noble, qui demande un goût de l’interaction avec les personnes en permettant de nourrir sa passion pour l’art culinaire. En revanche, une telle transformation de la société et de la culture représente un défi formidable qu’il faut accompagner. La réalisation de soi à travers une position salariée dans une entreprise, même si elle est récente dans l’histoire de l’humanité, a suffisamment marqué les dernières générations pour que l’adoption d’un modèle différent soit une révolution. Il y a de multiples éléments favorables. Comme l’a souligné Joël de Rosnay, les jeunes portent un regard différent que celui de leurs aînés sur le travail. Ils sont volontiers des « slashers », à la recherche de la passion et des interactions dans leurs activités professionnelles. Ils sont plus à la recherche de projets qui se renouvellent fréquemment (ce qui nourrit la « gig economy ») et vivent plus confortablement que les générations précédentes l’intrication entre la vie personnelle et la vie professionnelle. Néanmoins, à l’échelle de la société, cette évolution doit être accompagnée par la formation et l’éducation. Je termine en vous renvoyant à Michel Volle que j’avais déjà cité dans mon billet précédent : cette nouvelle économie des microentreprises et des services à la personne nécessite une revalorisation des compétences gestuelles et relationnelles.


dimanche, août 28, 2016

Découverte et Déploiement continus de produits



1. Introduction



J’ai profité de l’été pour lire un certain nombre de livres et regarder quelques talks comme les deux que je vais évoquer. Il m’apparait un mouvement important de convergence autour des idées que je présente dans ce blog, qu’il s’agisse d’entreprise 3.0, de lean startup, de design thinking ou de déploiement continu. Plus précisément, les pièces du puzzle commencent à se mettre en place et c’est une approche complète qui émerge.
Commençons par évoquer l’excellente intervention de Marty Cagan à l’USI 2016 intitulée « The Root Cause of Product Failure ». Je vous laisse découvrir le style inimitable et provoquant de Marty Cagan, leader du Silicon Valley Product Group, qui commence son exposé en challengeant les entreprises françaises sur nos méthodes de travail – « French companies operate the wrong way, change the way you work ». Il y a de la caricature dans ses propos, et il faut prendre le tout avec un grain de sel, mais on trouve également des idées clés, exposées avec force. Ces idées sont la conséquence de la complexité croissante et du rôle de l’usage, dans la droite ligne du Lean Startup et des thèmes de ce blog.  La première est qu’il faut prendre de la distance avec les roadmaps, puisque 50% de ce qu’elles contiennent ne sera pas utilisé pas les clients et l’autre moitié va nécessiter des itérations multiples de mise au point. Le second conseil est de se concentrer sur les « outcome » - lié à l’usage - et pas les « outputs », ce qui est bien sûr plus difficile et exige de renoncer aux anciennes méthodes velléitaires de contrôle. La troisième idée est qu’il faut maitriser et combiner deux processus parallèles et itératifs : « continuous product discovery » et « continuous product delivery ». C’est une idée que j’avais commencé à développer dans mon exposé au Xebicon dont l’illustration (simplifiée) à droite est extraite. Cette slide intitulée « Lean Startup and Lean Software Factory » pourrait également s’appeler « Product Discovery and Product Delivery


L’édition 2016 de l’USI recèle de nombreuses pépites, je vous recommande également l’exposé de John Kolko  intitulé  « Well-Design : How to use empathy to create products people love ».John Kolko est un des « apôtres » du Design Thinking.  Son exposé mérite une écoute attentive, notamment la seconde partie qui fourmille d’exemples pratiques. Le thème général est la convocation de l’émotion et de l’empathie dans le design des produits, ce qui résonne avec l’exposé que je viens de mentionner. L’empathie s’exprime par des histoires et le « product manager » doit être un « story teller ».  Le message principal est l’importance de l’observation - « observe and listen » - en allant « vivre l’expérience de ses futurs utilisateurs le plus tôt possible ». On retrouve le rôle de « Product anthropologist » cher à Richard Sheridan. Ces témoignages utilisateurs sont collectés et mis à la disposition de toute l’équipe en utilisant la force du management visuel (i.e., l’affichage sur les murs – « the great wall of utterance »). Cela souligne l’importance de la sérendipité dans le design thinking : il ne s’agit pas simplement de recueillir des « feedbacks » pour valider ou invalider des hypothèses : il faut écouter. La construction des hypothèses, des « behavioral insights » se fait de façon émergente. Et tout cela prend du temps et demande beaucoup de travail

Mais ma plus grande découverte de cet été est le livre “Lean Enterprise – How High Performance Organizations Innovate at Scale » qui va être le sujet du billet de ce jour.

2. Lean Entreprise


Ce livre est présenté en préface comme « Reingineering the Corporation for the digital age ». C’est à la fois un livre de synthèse, très à jour dans ses références, et un livre assez personnel sur l’importance de relier les deux flèches présentées dans l’introduction : le « product discovery » et le « product delivery ». C’est clairement un livre écrit avec un parti-pris informatique et logiciel, même s’il s’agit d’un livre généraliste pour un public large. Je vous recommande cet petit compte-rendu si vous voulez vous faire une idée avant de vous plonger dans ce qui va suivre. Vous pouvez aussi jeter un œil sur les recommandations.
J’ai lu ce livre cet été sur mon iPad, et je surligne comme chaque fois tout ce qui me semble intéressant. Dans ce cas précis, j’ai obtenu plus de 20 pages de citations ! La double conséquence est que mon petit résumé de lecture va être un peu plus long qu’à l’habitude …. Et qu’il s’agit bien d’un choix éditorial et personnel. Même si j’ai quelques petits sujets de divergence, ce livre est la meilleure version en anglais des idées présentées dans ce blog. La raison est double. D’une part ce livre est une synthèse, et la bibliographie dont sont partis les auteurs est la même que la mienne. On va retrouver des noms et des titres connus. La seconde raison est la proximité culturelle, les auteurs et en particulier Jez Humble ont une forte expérience, et culture, en IT et en architecture, ce qui transparait dans cet ouvrage. Suivant mon habitude, je vous propose un petit décalogue des idées principales, émaillé de citations extraites de cet ouvrage.

2.1   Il existe un ensemble de principes et de méthodes adaptés aux défis des entreprises plongées dans un monde numérique 


 L’objectif de ce livre est d’aider les entreprises qui cherchent à mettre en places les deux démarches évoquées dans l’introduction : “When Continuous Delivery (Addison-Wesley) and The Lean Startup (Crown Business) were published, we saw an enormous amount of demand from people working in enterprises who wanted to adopt the practices described in these books”. Une petite partie du livre est donc consacrée à une explication pédagogique des démarches de Lean Startup -avec son vocabulaire, ses principes et ses objectifs, fournir de la valeur au client en résolvant un vrai problème – et de « Continuous Delivery » (de façon simple, puisque qu’il existe un autre livre qui traite de ce sujet de façon unique). La partie la plus importante donne des conseils de mise en œuvre et surtout souligne les difficultés et les écueils à éviter. On peut donc dire que l’idée centrale est l’utilisation de méthodes incrémentales pour s’adapter de façon continue à un monde qui change (homéostasie). C’est plus général que le sujet du développement produit :  “However, the principles behind the Lean Startup can be applied to all kinds of activities within the enterprise, such as building internal tools, process improvement, organizational change, systems replacement, and GRC (governance, risk, and compliance) programs”. 
Les auteurs expliquent en détail une des conséquences clés de l’approche Lean Startup : le “business case” est le résultat du processus d’innovation (dans sa partie de product discovery), pas la condition. Bien sûr, il existe dès le début du processus d’innovation des hypothèses de création de valeur (à valider ou invalider) et un budget à respecter (cf. affordable loss), mais un business case produit trop tôt relève de la fantaisie : “Thus the business case essentially becomes a science fiction novel based in an universe that is poorly understood — or which may not even exist!”. D’un point de vue systémique, Lean Startup est vu comme un processus pour réduire l’incertitude : « The job of an experiment is to gather observations that quantitatively reduce uncertainty”. Ce principe s’applique à la première source d’incertitude qui est l’usage des clients, mais également pour d’autres incertitudes liées au développement exponentiel des technologies, ce qui conduit à incuber les innovations technologiques avec des principes semblables (nous allons en reparler dans la section 2.6). Je ne vais pas ici faute de temps vous résumer les différentes illustrations, mais elles font partie de l’intérêt du livre, comme l’exemple du « HP LaserJet Firmware Team », pour lequel de nombreux détails et chiffres clés sont fournis.


2.2   Le Coeur de la démarche est une vision “globale” du Lean Startup, qui va du Design Thinking au Growth Hacking



La vision Lean Startup des auteurs est une vision globale, très semblable à celle de Nathan Furr et Jeff Dyer – « The Innovator’s Method » , qui couvre les trois boucles : design thinking,  Minimum Viable Product, Growth. Sans surprise, on trouve donc dans ce livre des multiples références au Design Thinking – cf. le propos introductif avec John Kolko - et aux principes du Lean UX. Je cite par exemple : « In Lean UX: Applying Lean Principles to Improve User Experience, Jeff Gothelf and Josh Seiden state, “Design thinking takes a solution-focused approach to problem solving, working collaboratively to iterate an endless, shifting path toward perfection. It works towards product goals via specific ideation, prototyping, implementation, and learning steps to bring the appropriate solution to light. … By combining the principles of design thinking with Lean Startup practices, we can build a continuous feedback loop with real users and customers into our development cycle.”  Dans le détail, on retrouve l’importance de choisir “one metric that matters » avec la référence attendue aux Pirate Metrics :  « Dave McClure’s “pirate metrics”7 are an elegant way to model any service-oriented business, as shown in Table 5-2 (we have followed Ash Maurya in putting revenue before referral). In the early stages, we must spend less time worrying about growth and focus on significant customer interaction”. Le thème général de l’importance de la mesure, du recours au A/B testing est abondament représenté : « Ronny Kohavi, who directed Amazon’s Data Mining and Personalization group before joining Microsoft as General Manager of its Experimentation Platform, reveals the “humbling statistics”: 60%–90% of ideas do not improve the metrics they were intended to improve.” D’autres exemples, par exemple chez Amazon, illustrent la même conviction que l’intuition est mauvaise conseillère. Ce qui ne veut pas dire qu’il s’agit de remplacer le jugement par l’analyse : “Big data is a tool, not a solution. Crucially, it does not replace empathy. We still need human intuition and innovation to improve the problem definition and identify customer and user needs and problems, so as to form hypotheses that can be tested against the data”
J’ai retrouvé avec plaisir les principes du Customer Feedback Learning Loop (CFLL) que nous pratiquons à la Digital Agency d’AXA : « This customer feedback loop is essential for improving the quality of the service”, avec en particulier l’utilisation d’un plan d’action au format A3 hérité de la culture lean : «  A3 Thinking is a logical problem-solving tool to capture critical information and define the focus and constraints of the team. Later, it becomes a measure to test our outcomes against. An A3 report (so called because it fits on a piece of A3-size paper), composed of seven elements, embodies the Plan-Do-Check-Act cycle of experimentation”. Pour finir sur ce sujet, je vous recommande la section “Customer Intimacy » - un des objectifs cardinaux des entreprises dans le monde numérique -  qui exprime avec beaucoup de force le principe « nail it then scale it » : “By keeping our initial customer base small — not chasing vanity numbers to get too big too fast — we force ourselves to keep it simple and maintain close contact with our customers every step of the way”.


2.3   La réussite d’une stratégie numérique passe aussi par l’adoption d’une approche DevOps


Comme je l’ai indiqué, le livre est un plaidoyer pour le déploiement de DevOps, dans la continuité des arguments de Marty Cagan. L’idée fondamentale est que dans le monde numérique, les entreprises n’ont pas le choix, elles doivent s’adapter au développement incrémental et au déploiement continu de produits. D’un point de vue systéique, c’est l’application du principe lean des « small batches » pour augmenter la capacité d’adaptation. C’est difficile et ce n’est pas le cas de la majorité des entreprises : « They still apply top-down thinking and tend to batch up work into releases with long cycle times, thus limiting the use of the information collected to guide future decisions.”  Le livre donne de nombreux conseils sur l’intégration continue – la capacité à reconstruire tous le jours un système qui fonctionne et surtout à donner la priorité au maintien de la cohérence du système global sur l’ajout de fonctionnalités -, les tests automatisés – qui sont la condition sine qua none de ces pratiques d’intégration et développement continus – et le déploiement continu : “There are two golden rules of continuous delivery that must be followed by everybody: (1) The team must prioritize keeping the system in a deployable state over doing new work. (2) The solution is for all developers to work off trunk and to integrate their work into trunk at least once per day.”  Les auteurs citent les exemples connus – Google, Amazon, Facebook, cf. Les Geants du Web – pour conclure que : Not only is continuous integration possible on large, distributed teams — it is the only process that is known to scale effectively without the painful and unpredictable integration, stabilization, or “hardening” phases associated with other approaches, such as release trains or feature branches”.  Le déploiement continu ne signifie pas que le client est impacté de façon continue:  “The most important principle for doing low-risk releases is this: decouple deployment and release”. Il existe de nombreuses approches – cf. le “dark launching” -  pour mettre des produits en production avec des nouvelles capacités sans que celles-ci soit systématiquement disponibles pour les utilisateurs, ce qui permet de faire des tests “en production” dans des conditions réelles d’utilisation.

2.4   “IT matters because Software is eating the world”


L’ensemble du livre s’inscrit dans le prolongement du célèbre billet de Marc Andreessen. Les auteurs rapportent également cette citation de Jeff Immelt : « In an industrial company, avoid software at your own peril . . . a software company could disintermediate GE someday, and we’re better off being paranoid about that”. Une des sources principales d’information pour les auteurs est une étude “2014 State of DevOps Report »  qui leur permet de conclure : “A key premise of this book — supported by the experience of companies such as Tesla, among many, many others — is that the flexibility provided by software can, when correctly leveraged, accelerate the innovation cycle”. L’étude de 2014 est très détaillée (9600 participants) et montre que les pratiques qui sont le plus corrélées avec des hautes performances (“throughput” et “stability”) sont la gestion versionnée des configurations, le monitoring et l’alerting en temps reel, le fractionnement en petits lots, l’intégration continue journalière.  Pour résumer : “The researchers concluded that to achieve high performance, companies that rely on software should focus first and foremost on their ability to execute, build reliable systems, and work to continually reduce complexity.” Si la cible est claire (pas de surprise), ce qui rend le livre intéressant est une très bonne analyse de ce qui rend le changement vers DevOps/Continuous delivery difficile. La première difficulté est la gestion de la complexité : « Building complex systems, however, these forces inevitably lead to system bloat, increased complexity and dependency management, inefficiency, and poor quality”. Les auteurs parlent, sans surprise non plus, des difficultés à mettre en place des projets de remplacement et refonte des grands systèmes techniques. Il est clair que le changement de paradigme - passer de “construire de façon répétée et fiable des systèmes stables” à “construire de façon continue un système qui change constamment”- est difficile pour la plupart des entreprises.
La seconde difficulté est l’impérieuse nécessité d’aligner tous les stakeholders sur cette approche de “continuous delivery”.
Lorsque les demandes métiers suivent des approaches “classiques”, on obtient des “hybrides” peu efficacies : “ Even in organizations which have adopted “agile” development methods, the value stream required to deliver a project often resembles Figure III-1, which we describe as “water-scrum-fall.”  Je vous laisse découvrir le “water-scrum-fall” … toute ressemblance avec une situation ayant existé n’est pas fortuite. Les auteurs ont un parti-pris très clair qui rappelle également les recommandations des “Géants du Web”: “In most enterprises, there is a distinction between the people who build and run software systems (often referred to as “IT”) and those who decide what the software should do and make the investment decisions (often called “the business”)  … In high-performance organizations today, people who design, build, and run software-based products are an integral part of business; they are given — and accept — responsibility for customer outcomes.” 
J’ai lu avec beaucoup d’intéret le “témoignage” de Suncorp, un assureur Australien qui applique ces approaches à son informatique : “Suncorp is successfully applying agile and lean approaches to the “big iron” world of mainframe systems. During the first year of the simplification program, testing was extended to support integration of the mainframe policy system with the new digital channels and the pricing systems. In the process, Suncorp has reduced 15 complex personal and life insurance systems to 2 and decommissioned 12 legacy systems”.

2.5   Mettre en place le déploiement continu est un problème de culture


Ce point est suffisamment important aux yeux des auteurs pour que je le sépare du paragraphe précèdent. Même si la mise en place du déploiement continu est un chantier technique, avec des investissements, des outils et des pratiques d’ingénierie, les choix technologiques ne sont pas le facteur de succès le plus important. C’est avant tout une question de “mindset” et de “culture”: “The purpose of this chapter is to show that while these obstacles are indeed challenges, the most serious barrier is to be found in organizational culture, leadership, and strategy”. A plusieurs reprises, les auteurs évitent de donner des conseils technologiques : “First, we think that tool choice is actually not a tremendously important decision (so long as you avoid the bad ones). Many organizations moving to agile methodologies spend an undue amount of time on tool choice hoping to magically solve their underlying problems”. Si la mise en oeuvre est une question de culture, c’est donc une question de femmes et d’hommes. C’est ce qui conduit à la place importante qu’occupent l’organisation et le management dans ce livre, ce que nous allons voir dans les sections suivantes: “The only path to a culture of continuous improvement is to create an environment where learning new skills and getting better at what we do is considered valuable in its own right and is supported by management and leadership, thus reducing learning anxiety
L’adoption des pratiques de développement et déploiement continu est un challenge interne, pour les collaborateurs de l’entreprise, qui relève de l’émergence. Je vous recommande de lire l’argumentWhy You Cannot Simply Hire or Acquire Your Way to Innovation”.  Un des corolaires est qu’il ne s’agit pas d’un problème de talents qu’il faudrait trouver à l’extérieur: The “talent shortage” problem is solved by creating an environment in which people can learn on the job, and hiring people with a growth mindset.” Les auteurs citent Carol Dweck: “We should not hire people solely on the basis of the skills they already possess. This is particularly short-sighted in the software industry”. Parmi les exemples illustratifs, j’ai beaucoup apprécié l’histoire de Martha Lane-Fox, qui a travaillé en 2010 avec le gouvernement anglais sur la numérisation des services publics. Ses préconisations ne sont pas sans rappeler le travail d’Henri Verdier à EtaLab (lien), avec une stratégie “open data” rendue visible par l’exposition d’APIs. Le résumé de cette approche est une excellente méthode de conduite de la transformation numérique : “First, starting small with a cross-functional team and gradually growing the capability of the product, while delivering value iteratively and incrementally, is an extremely effective way to mitigate the risks of replacing high-visibility systems, while simultaneously growing a high-performance culture.

2.6  Une organisation en équipes autonomes, alignées sur un même objectif, défini du point de vue du client


Une partie importante du livre fait la liaison entre le mode de fabrication des innovations, autour du Lean Startup, le mode de production numérique, selon les principes de DevOps et du déploiement continu et le mode d’organisation de l’entreprise. Sans surprise, on y retrouve des thèmes de l’Entreprise 3.0 et des références citées dans ce blog, comme par exemple l’holacracie et l’effectuation. Le premier sujet est l’importance du « purpose », du but de l’enpreprise en tant que fédérateur du système complexe qu’elle représente : « Creating, updating, and communicating the company’s purpose is the responsibility of the enterprise’s executives”. Un chapitre très intéressant propose une revisite de l’histoire des organisations militaires et de l’émergence du  “Mission Command: an alternative to Control and Command”. Ce mode d’organisation s’appuie sur des équipes autonomes et des ordres dans lesquels le pourquoi remplace le comment : « The higher the level of command, the shorter and more general the orders should be. The next level down should add whatever further specification it feels to be necessary, and the details of execution are left to verbal instructions or perhaps a word of command. … Crucially, orders always include a passage which describes their intent, communicating the purpose of the orders”. Les auteurs remarquent que cette organization remplace le conrôle-commande classique et ne peut pas co-exister. Le développement sur la nécessité de travailler en équipe autonomes et cross-fonctionnelles ne surprendra personne, c’est le coeur des methods incrémentales comme Lean Startup ou DevOps: “Finally, taking a scientific approach to customer and product development requires intensive collaboration between product, design, and technical people throughout the lifecycle of every product. This is a big cultural change for many enterprises where technical staff do not generally contribute to the overall design process”. Je vous laisse lire et découvrir les nombreuses critiques faites sur les entreprises d’aujourd’hui dont le fonctionnement est resté séquentiel et Taylorisé : “Organizations using the phase-gate paradigm (described in Figure III-1 at the beginning of Part III) will find the principles described in the following chapters increasingly hard to implement without fundamentally changing their organizational structure.” Le ton général n’est pas sans rappeler celui de “The Lean Enterprise” que j’avais commenté dans un billet precedent. Il y a également beaucoup de références systèmiques – avec un lien évident à faire avec le livre de Jurgen Appelo – ce qui conduit à tisser les liens entre Lean Startup, DevOps et Lean au sens de TPS et du Toyota Way. J’y reviendrai à la fin de ce billet mais voici deux citations qui donnent une bonne idée de la proximité avec les thèses de ce blog : « Slack is also essential to provide time for process improvement work. Since 20th-century Taylorist theories of management emphasize maximizing employee utilization, this requires a significant change in thinking for many organizations”, qui conduit un peu plus loin à: “ High utilization means work involving collaboration takes longer to complete, because the people you need to work with are always busy with other priorities” – on pense ici à la citation d’Yves Morieux : “coopérer, c’est mettre ses marges de manoeuvre au services des autres”.
J’en profite ici pour indiquer que, si je suis à 95% aligné sur le contenu de cet ouvrage, il y a quelques sujets qui me font prendre un peu de distance – même et surtout s’ils sont également parmi mes sujets d’intérêt. Par exemples il y a quelques références à la théorie des jeux et à la simulation de type Monte-Carlo que je trouve rapides, voire simplistes. De même il y a quelques pages qui expliquent qu’on peut piloter un backlog de façon scientifique grâce au « Cost of Delay », ce qui est un peu facile et contradiction avec l’hypothèse d’incertitude et d’aléas.


2.7   L’importance fondamentale de la motivation intrinséque face à la complexité


Ce point nourrit le paragraphe précédent, mais l’importance que les auteurs lui accordent mérite que je le souligne: « Decades of research have shown that these intrinsic motivators produce the highest performance in tasks which require creativity and trial-and-error — where the desired outcome cannot be achieved simply by following a rule”. On aura reconnu bien sûr la pensée de Daniel Pink, qui est abondament cité dans ce livre : « As Dan Pink argues in Drive,2 there are three key elements to consider when building an engaged and highly motivated team … 1. Autonomy — the desire to direct our own lives. 2. Mastery — the urge to get better and better at something that matters. 3. Purpose — the yearning to do what we do in the service of something larger than ourselve.” La seconde dimension – mastery – est fondamentalement liée à l’apprentissage permanent, que nous avons déjà évoqué comme facteur de succès. Une organisation de développement et de déploiement continu est un processus auto-apprenant. On trouve dans le livre également de nombreuses références à la différence entre « Single-Loop Learning and Double-Loop Learning” pour reprendre les concepts de Chris Argyris. Pour faire simple, l’apprentissage en boucle simple permet d’apprendre à corriger une situation désagreable, tandis que l’apprentissage en double boucle permet d’apprendre à éviter que la situation ne se reproduise : « Double-loop learning occurs when error is detected and corrected in ways that involve the modification of an organization’s underlying norms, policies and objectives ». Pour illustrer cet différence dans le monde du lean, le Kaizen a pour effet (simple boucle) de résoudre un problème, mais surtout (seconde boucle) de créer la collaboration d’équipe – la compréhension des points de vue – qui permet de se débarrasser des causes profondes de ce problème.  Et comme cela est connu depuis des décennies dans le monde du lean manufacturing, « Running experiments is hard and requires great discipline. Coming up with good experiments requires ingenuity and thought. By nature, people tend to jump straight to solutions instead of first agreeing on measurable target objectives”.

2.8 On ne peut pas innover sans gérer des échelles de temps multiples


La vision systémique se développe en accordant beaucoup d’importance aux échelles de temps et à l’équilibre nécessaires entre les différents horizons, en particulier long et court-terme : « Ensure people are rewarded for favoring a long-view system-level perspective over pursuing short-term functional goals ». Il est fait dans le livre de multiples références à Geoffrey Moore, qu’il s’agissent du célèbre best-seller « Dealing with Darwin » de 2006 ou du livre plus récent « Escape Velocity : Free Your Company’s Future from the Pull of the Past ». Les auteurs empruntent à ce deuxième livre une décomposition en trois horizons : « horizon1 », celui du court-terme (0 à 12 mois), de l’atteinte des résultats opérationnels, « horizon 2 », de 12 à 36 mois, celui de la croissance, de la construction de ce qui permet cette croissance ou de l’élimination de ce qui la bloque, et « horizon 3 », de 36 à 72 mois, le temps de l’exploration des options, pour déterminer ce qui sera construit en horizon 2. On reconnait la pensée de Geoffrey Moore lorsque les auteurs écrivent : « Too many enterprises kill innovation by trying to manage horizon 2 and 3 investments using the strategies of horizon 1”.  Cette stratégie multi-échelle est fondamentale pour préparer ses capacités (capabilities), y compris celle de réagir rapidement en « horizon 1 ». Rappelons-nous de la citation de Pasteur : « le hasard ne sourit qu’aux esprits bien préparés ». La sérendipité (sur l’horizon 1) se prépare pendant les horizons 2 et 3, pour construire le potentiel de situation dont parle Francois Julien. Il y a une vraie synergie entre ce que peut faire une équipe agile en temps court et ce que l’entreprise a assemblé en termes de potentiel sur le temps long : « : Autonomous teams will make little difference to customer outcomes if the enterprise architecture prevents teams from running experiments and responding quickly to customer needs ». Ce jardinage du potentiel, pour suivre la métaphore de François Julien, est en pleins et en creux : en ajout de capacités et en réduction de la dette technique, en simplification de la complexité : « The moment a product (if we are in Horizon 3) or feature (in Horizon 2) goes from being an experiment to validated, we need to start aggressively paying down technical debt”.


2.9   Se concentrer sur les l’impact (outcome) et pas sur la production (output)


Cette idée, «Define, measure, and manage outcomes rather than output”,  développée par Marty Cagan dans son exposé à l’USI se retrouve également dans de nombreuses pages de ce livre. La principale différence est qu’il n’y a pas de chaîne causale simple entre nos actions et les outcomes, alors qu’elles existent pour les outputs. Le mode de management, et le mode de contrôle est forcément différent (cf. le point 2.6). Les auteurs développent l’argument que le mode traditionnel de contrôle commande hiérarchique est contre-productif pour gérer les outcomes. Accepter, pour un membre de l’équipe cross-fonctionnelle, d’endosser la responsabilité d’un outcome auquel il participe mais qui le dépasse, exige une culture différente des indicateurs de performance. Lorsque ce n’est pas la cas, « dysfunctional behavior is ubiquitous and systemic, not because people are wicked, but because the requirement to serve the hierarchy competes with the requirement to serve customers…people’s ingenuity is engaged in survival, not improvement”.  Il ne s’agit nullement d’une reduction des exigences, bien au contraire: « Remember, metrics are meant to hurt — not to make us feel like we are winning”. Mais ces metriques servent à guider et valider l’apprentissage, pas à évaluer de façon directe la performance de l’équipe. On retrouve la discussion sur les métriques de développement agile que j’avais commencé dans le billet précédent (dernière section) : « Managers should never attempt to compare velocities of different teams or aggregate estimates across teams. Unfortunately, we have seen team velocity used as a measure to compare productivity between teams, a task for which it is neither designed nor suited.”

2.10  L’heritage de Taichi Ohno dans toutes ces approches


Pour conclure, je voudrai souligner le nombre élevé de références à TPS (Toyota Production System) et Taiichi Ohno. TPS est pris comme un système de management qui dépasse le Taylorisme : « The way the TPS works is in sharp contrast to the traditional US and European management practice based on the principles of Frederick Winslow Taylor, the creator of scientific management”. Les caractérisques principales sont le travail en équipe – avec des témoignages très intéressants issu du déploiement de TPS aux US dans le cadre de NUMMI -, le travail en petit lot – « Uncertainty is an important argument for working in small batches »,  l’amélioration  continue et l’importance stratégique de la formation des femmes et des hommes : « That is what allows an organization to adapt rapidly to its changing environment. Toyota calls this “building people before building cars.””. Je vous recommande la lecture de l’anecdote qui se passe au début de l’histoire de Toyota, lorsqu’ils fabriquent des métiers à tisser. Un concurrent vient de voler le design du produit courant, et la réaction du CEO est d’expliquer que non seulement dans une course continue à l’amélioration, le temps qu’il faudra au concurrent pour implémenter le design qu’il vient de voler fait qu’ils seront en retard sur le prochain produit de Toyota, mais que surtout ce qui est important ce n’est pas l’ensemble des choix contenus dans un design, mais l’accumulation de la connaissance – dans la tête des collaborateurs – qui ont conduit à faire ces choix à un instant donné mais qui pourront conduire à d’autre choix dans un contexte différent. Cet argument est lumineux et encore plus pertinent dans le monde numérique. Conduire une transformation digitale, c’est créer des bases de connaissances incarnées sous formes d’équipes.
Parmi les autres emprunts à la culture lean, on retrouvre sans surprise l’utilisation du Kanban : « In the context of product development, the Kanban Method provides principles and practices to support this goal, as described in David J. Anderson’s Kanban: Successful Evolutionary Change for your Technology Business…. The Kanban Method offers a comprehensive way to manage the flow of work through the product development value stream” qui permet entre autres de limiter le “Work in Process”.  On trouve également la mise en valeur du “genchi genbutsu”: « At Toyota, genchi genbutsu (“go and see”) allows leaders to identify existing safety hazards, observe machinery and equipment conditions, ask about the practiced standards to gain knowledge about the work status, and build relationships with employees”. Et pour finir, sans surprises, on trouve en bonne place le livre « Toyota Kata » de Mike Rother – que j’ai mentionné brièvement sans prendre le temps de le résumer : « The Improvement Kata, as described by Mike Rother, is a general-purpose framework and a set of practice routines for reaching goals where the path to the goal is uncertain ... Teams that use flow-based methods such as the Kanban Method (for which see Chapter 7) and continuous delivery (described in Chapter 8) can create Improvement Kata iterations at the program level”. Le concept des « improvement Kata » a eu une forte influence dans le développement de la Lean Software Factory à Bouygues Telecom, pour changer la culture et les comportements au travers de pratiques qui deviennent des rituels (cf. 2e Partie de l’exposé au Lean IT Summit). Une idée qui n’est pas neuve puisque Aristote nous disait déjà : « Nous sommes ce que nous faisons de façon répétée. L’excellence n’est donc pas une action, mais une habitude ».