dimanche, mai 19, 2019

Le plaisir au travail comme principe d’organisation



1. Introduction


Le sous-titre de ce blog, que vous pouvez lire en haut de cette page, est « partager des réflexions sur l'architecture d'organisation et la gestion des flux d'information ». Je m’intéresse depuis 15 ans aux principes d’organisation qui permettent de mieux travailler collectivement, de façon plus efficace. Les lecteurs de ce blog ont pu voir que j’ai un intérêt tout particulier pour :

  •  L’utilisation du courriel et des outils alternatifs de communication, depuis les réseaux sociaux d’entreprises jusqu’à la messagerie instantanée. La charge de communication augmente de façon constante avec la complexité du travail à effectuer (c’est même une excellente façon de définir la complexité), donc cette gestion des communications, pour optimiser à la fois la performance/satisfaction individuelle et collective, est une question essentielle.
  •  L’optimisation du réseau implicite de communication, qui contient l’organisation hiérarchique, l’organisation projet, le système réunion, la sérendipité des « rencontres non planifiées » (ce qui touche à l’organisation spatiale tout comme à la culture de l’entreprise). J’ai beaucoup travaillé il y a 10 ans sur la modélisation et la simulation, je suis aujourd’hui plus intéressé par la collecte d’expérience et je me concentre donc sur la recherche bibliographie.



C’est pour celà que je m’intéresse aujourd’hui au livre « The Joy of Work: 30 Ways to Fix Your Work Culture and Fall in Love with Your Job Again” de Bruce Daisley. Comme indiqué dans le titre, Bruce Daisley propose le plaisir au travail comme principe d’organisation des entreprises. Ce livre, un best-seller au succès important et mérité, m’a fasciné parce qu’il fait une synthèse brillante des bonnes idées des 10 dernières années, tout en les étayant par des exemples et surtout des études scientifiques, depuis la neurologie jusqu’à la sociologie quantitative. Je reviendrai dans la conclusion sur plusieurs autres livres qui explorent des sujets connexes, ce qui est remarquable dans le livre de Bruce Daisley est qu’il couvre un périmètre large et donne des arguments très solides pour étayer les principes qu’il propose. 


2.  Travailler de façon plus agréable pour être plus efficace


Bruce Dailsey est le vice-président de Twitter en charge de l’Europe. C’est également un manager observateur et curieux, qui a cherché à comprendre les causes des fonctionnements et dysfonctionnements dans son expérience professionnelle. Son approche originale a été de créer un podcast, « Eat, Sleep, Work, Repeat », grâce auquel il a pu inviter un grand nombre  d’auteurs et de scientifiques spécialisés dans les méthodes de travail, l’efficacité et le plaisir au travail : « In the midst of acute self-doubt I decided to take the perhaps puzzling step of starting a podcast. I felt that recording it would give me permission to pick the brains of experts in organisational psychology – the people who really understand what makes workplaces tick ».  Son livre est la synthèse de tous les conseils obtenus lors des entretiens : « What I have discovered is that there is no shortage of science, research and investigation into what makes work more fulfilling. It’s just that none of the evidence ever seems to reach people doing everyday jobs. In this book I’ve therefore distilled the wisdom of experts into thirty simple changes that anyone can try out for themselves or suggest at a team meeting».

Cette approche nous rappelle bien sûr celle de Daniel Pink, dont nous allons citer plusieurs ouvrages dans cette revue, et en particulier « Drive » dont le pitch lors de son TED talk sur la motivation était « There is a mismatch between what science knows and what business does ». Une décennie plus tard, la science a progressé et Bruce Daysley fait une constatation semblable : « The last fifteen years have seen incredible advances in our understanding of work. Thanks to neuroscience, behavioural economics and the arrival of ‘people analytics’, we know more than ever before about what work is doing to us – and the actions we can take to make it better ».

Comme souvent dans ce blog, je ne vous propose pas une fiche de lecture complète mais plutôt une synthèse orientée par les thèmes d’intérêt du blog : les principes d’organisation et le management des flux d’information. En particulier, une partie importante du livre est consacrée à l’art d’être un bon manager, un sujet de première importance pour l’auteur :  « Indeed, good managers have more impact than higher salaries. That, at least, is the conclusion that was drawn following a role-play experiment carried out in Spain and the US in which teams were given a challenge and a manager was instructed to direct them as they saw fit ». Je vais faire ici un résumé rapide des idées essentielles en termes d’organisation et méthodes de travail. Je ne vais pas évoquer les sources et les preuves de ces principes, j’espère qu’ils vous donneront envie de lire ce livre.

2.1 Le désengagement reste l’ennemi numéro un des organisations d’aujourd’hui.


Sans surprise, le livre commence par un rappel du problème aigu du désengagement : « workforce suggests that only 13 per cent of employees are engaged in their jobs, meaning that they are highly involved in and enthusiastic about their work and workplaces ». On retrouve les idées de nombreux auteurs, dont Yves Morieux. L’argumentaire d’Yves Morieux à l’USI m’a tellement impressionné que j’en ai fait le pivot de l’introduction de mon livre en 2011. La complexité croissante du monde implique une complexité croissante des organisations qui produit facilement une perte de sens et la baisse massive de l’engagement (cf. son TED talk). Bruce Daisley insiste sur le rôle des procédures, des processus et des règles dans le fonctionnement déshumanisé qui conduit à ce désengagement. On est proche des thèses de François Dupuy que j’ai cité plusieurs fois.

Lutter contre le désengagement, c’est travailler sur la motivation, et Bruce Daisley se place sur les pas de Daniel Pink et son best-seller Drive, en renforçant la motivation intrinsèque (interne de l’employé) par opposition à la motivation extrinsèque : « research suggests that ‘employees who receive lots of extrinsic rewards doing work that feels boring and meaningless to them are making themselves sick’. There you have it – the Smoothie Delusion. You can’t just make people love their jobs by giving them rewards (of smoothies, money or whatever). An empty job remains an empty job whatever the incentive ».  Rappelons que les trois piliers de la motivation intrinsèque sont, pour Daniel Pink,  l’autonomie, le développement de la maîtrise (mastery) et le sens (purpose) : « The sense of purpose – of making a contribution – has been proven to be a significant driver of workers’ engagement with, and commitment to, their jobs».  Une partie importante du livre, ce que nous allons voir dans les sections suivantes, est logiquement consacré à comment retrouver du sens dans le travail, en particulier en y prenant plus de plaisir (une condition et une conséquence).

Parmi les outils et les routines qui reçoivent la critique de Bruce Daisley, l’email tient une part importante. C’est fort logique lorsqu’on voit le temps quotidien passé à répondre à ses courriels, plus de 25% selon la majorité des études : « We think we’re being immensely productive when we reduce our vast inbox down to twenty or thirty emails. Yet in fact all we’ve done is to catch up with responding to conversational requests from colleagues. We’re not using our time productively, even though we think we’re devoting more of it to our work ». La résolution de ce dilemme passe à la fois par la réduction du flux et par un meilleur traitement de ses emails. Le premier point est une question de culture, il faut responsabiliser les expéditeurs au profit des destinataires, dans une perspective lean. Il faut aussi promouvoir massivement les outils alternatifs, ce que fait Bruce Daisley dans son livre. Le deuxième point passe par le développement d’interfaces plus intelligentes pour traiter le flux de courriel en utilisant les capacités progressives de l’Intelligence Artificielle pour assister le tri et traitement (cette évolution est d’autant plus importante que l’email ne va pas disparaitre).

2.2 Pour redonner du sens au travail il faut se concentrer sur peu de choses et les faire bien, puis de mieux en mieux


Bruce Daisley cite de nombreuses sources pour étayer ce qui est devenu une évidence ces dix dernières années : nous ne sommes pas faits pour le multi-tasking, mais au contraire pour faire une chose à la fois, le mieux possible. Par exemple : « Psychologist Teresa Amabile, who has done extensive research in this area, has established that people feel satisfied at work when they are confident that they have made progress on something: not powering through a mountain of email but focusing on a single task ».  On retrouve ici (sur un horizon de temps différent) un des principes fondamentaux de Google :  « Mieux vaut faire une seule chose et la faire bien ».  Ce qui est particulièrement important, c’est que le multi-tasking est à la fois inefficace du point de vue de la performance et pénible du point de vue de la satisfaction au travail : « If you want to be happier in your job, then, doing one thing at a time is a route to happiness as well as productivity ». Lorsqu’on compare le travail dans les équipes d’innovation des grands groupes et des startups, la capacité à pouvoir travailler à 100% sur un sujet est une des principales différences. La multiplicité des réunions de reporting, de procédures et de sujets à traiter en parallèle privent beaucoup d’employés de l’efficacité et du plaisir à travailler à plein temps sur un sujet unique.

Le livre parle aussi du concept de flow de Mihaly Csikszentmihaly, qui évoque le plaisir de faire de façon intense et immersive ce que nous savons faire, avec un niveau de difficulté au juste niveau : suffisant pour nous faire progresser et pas trop élevé pour que nous éprouvions le plaisir du « mastery » dont parlait Daniel Pink. Le concept de flow s’applique également au « knowledge worker » :  « Writer and academic Cal Newport has his own term for the ‘flow’ this involves: ‘Deep Work’, defined by him as ‘professional activities performed in a state of distraction-free concentration that push your cognitive capacities to the limit’ ».

Une autre idée importante, sur laquelle nous reviendrons, est qu’il ne faut pas, contrairement à une idée reçue, être trop contraint, en temps, ressources, procédures, pour donner le meilleur de soi-même. Le stress n’est pas un stimulant, mais un inhibiteur de la créativité : « When we’re feeling stressed, ingenuity often goes out of the window. Instead, we take refuge in whatever seemed to work last time. We repeat rather than innovate ». On retrouve ici des idées développées par Daniel Kahneman : en situation de stress, nous sous-utilisons le « système 2 ». Il ne s’agit pas de supprimer le stress par une abondance de ressources : les principes de l’effectuation nous montrent au contraire qu’il faut savoir faire avec ce que l’on a, mais l’autonomie doit être réelle pour que les contraintes ne se transforment pas en stress. On peut aussi voir dans ces principes une application du lean au « knowledge worker ».

2.3 Comme nous l’enseigne l’approche lean, la surcharge est l’ennemi de la qualité, de la créativité et de l’innovation


Un des thèmes clé du lean appliqué au « cerveau d’œuvre » est la nécessité de conserver des « lean buffers », des zones de flexibilité dans son agenda, nécessaires à l’innovation, la recherche continue de la qualité et la coopération. Je commence par citer une fois de plus Yves Morieux : « La coopération c’est mettre ses marges de manœuvre au service des autres » ; pour qu’elle ait lieu, il faut un peu de flexibilité. C’est important pour innover, créer ou trouver des solutions originales : « Don’t see gaps in your diary (and other people’s diaries) as time when you’re not working. Our best ideas often come when we’re sitting around and our mind is wandering ».

Il est également plus efficace de contrôler la charge de travail et d’éviter les semaines trop longues. C’est une idée différente de la précédente : les « buffers » dont des zones de flexibilité faites pour être remplies, on parle ici du total : « At the end of the century, in 1893, weekly hours at the Salford Iron Works were controversially cut from fifty-three to forty-eight and the result was a reported increase in total output » ; « His findings were unequivocal. The ideal maximum working week was fifty hours. As he put it: ‘The marginal product of hours is a constant until the knot at [about fifty] hours after which it declines.’ » L’auteur cite de nombreux autres exemples qui montre que le fait de travailler le plus possible est une illusion en termes d’efficacité. Une autre dimension passionnante qui nous vient des neurosciences est la « fatigue décisionnelle » : chaque décision nous fatigue et une bonne organisation de la journée consiste à conserver notre énergie et l’appliquer aux bonnes décisions :  « As Daniel Levitin asserts in The Organized Mind, there’s a limit to what we can do. ‘Our brains are configured to make a certain number of decisions per day,’ he writes, ‘and once we reach that limit, we can’t make any more, regardless of how important they are’ ».

Il ne s’agit pas de prôner une organisation unique du travail, il y a des moments et des enjeux différents, qui conduisent à des pratiques différentes pendant la journée ou la semaine. En revanche, il est essentiel de réserver des périodes de calme, des moments qui permettent d’être créatif : « Allowing Monk Mode Mornings or moments of quiet reflection is a vital part of the creative process ». Bruce Daisley cite l’expérience des nageurs de combat anglais : « That’s why we subscribe to the Navy SEAL saying: “Under pressure you don’t rise to the occasion, you sink to your level of training”,’ he concluded ». Il existe forcément des moments difficiles, du point de vue du stress comme des enjeux, et c’est pour cela que les standards, les procédures et les entrainements conservent toute leur pertinence au 21e siècle. En revanche, ce n’est pas l’unique méthode (optimale) pour créer de l’efficacité et il faut savoir alterner : « As Dan Pink has shown, setting time aside for innovation makes that innovation more likely to happen. Ten or 20 per cent of each day is simply not practical, but a week every six months (equivalent to two hours a week) – or even a day or two – is eminently achievable, and the results can be extraordinary »

2.4 L’environnement de travail et l’organisation doivent minimiser les interruptions et maximiser la sérénité


Les études scientifiques le disaient déjà il y a 10 ans, mais le faisceau de preuve s’est considérablement renforcé : il faut fuir les interruptions pour travailler efficacement. Même les interruptions pour les causes les plus légères nous oblige à changer de contexte, à perdre notre concentration, et il nous faut beaucoup plus de temps que perçu consciemment pour nous remettre dans le fil. Un environnement qui nous soumet à trop d’interruptions est un environnement stressant qui diminue notre performance au travail : « Time and time again, scientists have found that constant distraction is a sure path to a sense of discontent. Psychologists at Harvard University, using another smartphone prompt to check on what people at work were thinking and doing, discovered that for 46.9 per cent of the day they weren’t thinking about very much ».

Si le lieu de travail n’est pas favorable à la concentration, il faut multiplier les alternatives et admettre que différents types de tâches méritent des environnements différents. Il est clair que l’ « open space » favorise les échanges informel et la synchronisation, mais c’est aussi un accélérateur d’interruption qui ne favorise pas l’efficacité : « The only problem with this utopian view is that it’s not true. Open-plan offices have been studied time and time again, and the conclusion is always the same: in productivity terms, they’re a disaster ».  Les bulles, les box, les petites salles de réunion que l’on peut réserver ou encore le travail à la maison sont des meilleures alternatives dès qu’il vaut mieux se concentrer : « His view is that we shouldn’t even come into the office to do emails. We should only come to work to have conversations and meet people ».

Il ne s’agit pas simplement d’une question de lieux, mais également d’une question de culture et d’organisation, voir de paramétrage des outils. Bruce Dailey cite l’exemple célèbre des notifications, par exemple pour les courriels : «  We should all consider removing all of the notifications from our email. Off desktop, off mobile. Set your email up specifically so that you can only see how many messages you have when you open the application ». Une interruption qui signale un nouveau courriel, interprétée par le cerveau comme une nouvelle tâche, ajoute à la charge mentale et crée de la fatigue inutile : « ‘Each email you receive adds another task and at the end of the day you’re very fatigued. We see the creativity and productivity of staff depleted by the end of the day,’ Professor Jackson told the Guardian ».  Construire le bon environnement et la bonne culture de travail a un impact très fort sur les performances. Bruce Daisley cite une expérience où différentes équipes, placées dans des conditions de travail très différentes, ont été mise en compétition pour mesurer les effets de ces décisions d’organisation : « In the event, the best teams performed far, far better than the worst – by a factor of ten. They also outperformed the average by 2.5 times. The reason? It was whether people felt they were able to get work done in peace. Sixty-two per cent of the top performers said their workspace was ‘acceptably private’. Seventy-five per cent of the bottom performers, by contrast, said they worked in locations that subjected them to constant interruptions ».

2.5 Minimiser la taille des réunions pour maximiser l’efficacité


Les réunions tiennent une part importante dans nos journées comme dans le livre de Bruce Dailey. Il milite fort logiquement pour réduire et limiter le nombre des participants : « Put very simply, teams should be small, and meetings smaller ». Les arguments sont multiples : une meilleure communication (plus de temps par intervenant), un meilleur engagement (pour des raisons physiques de disposition comme pour des raisons d’agenda) et une meilleure responsabilisation des participants, dans la droite ligne de Christian Morel dans son best-seller « Les Décisions Absurdes ». La sociologie nous enseigne que notre sentiment d’appropriation est inversement proportionnel au nombre de participants, qu’il s’agisse d’une décision d’entreprise ou d’une réaction courageuse dans une situation difficile.

Les réunions petites et fréquentes sont essentielles à l’efficacité de la propagation de l’information dans l’entreprise, mais elles ne sont pas suffisantes.  Il faut construire une structure de “petits mondes”, c’est-à-dire mélanger des petits groupes fortement connectés avec réunions de plus grande taille qui facilitent la propagation rapide sans déformation et évitent les silos : « This insight led Heffernan to do something that seems in retrospect blindingly simple. She introduced a weekly social meeting. At half past four every Friday everyone would stop work, gather together and listen as a small handful of their colleagues stood up to say who they were and what they did ». J’en profite pour signaler un point de divergence avec Bruce Daisley : s’ennuyer en réunion n’est pas forcément un signe de mauvaise organisation. Un certain nombre de rituels, telles que les réunions de partage de post-mortem, ou les réunions d’appropriation des objectifs suivant les pratiques japonaises, sont des réunions lentes, avec beaucoup de participants, dans lesquelles une forme d’ennui n’est pas illogique. Tout ne se réduit pas au plaisir au travail, dans une situation complexe avec un projet complexe, la notion d’engagement égal et unique de tous les participants n’est pas réaliste. Pour construire des grandes choses complexes, il faut accepter de savoir écouter et attendre.

Il est de bon ton de critiquer les réunions et le temps qu’elles nous font perdre, mais elles sont utiles et nécessaires comme outil de coordination. Dans mon livre de 2011 comme dans ce blog, j’insiste sur la notion de synchronisation émotionnelle (nous allons y revenir ensuite), cette proximité qui permet d’éliminer les coûts de transaction associés à une communication interpersonnelle. La proximité créée par une réunion (physique, physiologique, émotionnelle) est un accélérateur de collaboration. Bruce Dailsey insiste sur l’utilisation de l’humour et des périodes de détente pour créer cette proximité : « But, even so, humour has its part to play here, too. And the evidence suggests that it plays a much more sophisticated role than you might think. Quite simply, it helps us to Sync ». De la même façon, les temps collectifs de détente au sein de l’entreprise contribuent à la performance globale : « Amusement, in other words, isn’t just a frivolous waste of time. The looseness of thought that laughter provokes triggers our creative juices, encouraging free association of ideas ».

Ce livre consacre quelques pages à la pratique des « walking meetings », ce qui consiste à faire des petites réunions en marchant : «  And what Oppezzo and Schwartz discovered was that walking led to a very significant uplift in creative thinking: in fact, 81 per cent of participants saw their scores for giving creative suggestions go up when they were walking rather than sitting (the average increase was 60 per cent) ». Ce conseil s’inscrit dans une approche plurielle, comme précédemment : il n’existe pas de méthode universellement efficace, mais chacune correspond à des situations et objectifs différents : « As the scientists put it, walking may not be good for convergent thinking (i.e. homing in on the ‘correct’, standard answer to a question) but it is a powerful tool for divergent thinking (coming up with fresh, imaginative ideas) ».

2.6 Une organisation efficace passe par un management efficace du temps et de la temporalité


La chrono-analyse nous enseigne que notre efficacité et notre énergie varie durant la journée. Bruce Daisley cite plusieurs fois When : The Scientific Secret of Perfect Timing, le livre de Daniel Pink qui est une référence sur le sujet. Ce livre est une mine d’information qui mériterait une revue séparée, en particulier en ce qui concerne les différents moments de la journée : « First, our cognitive abilities do not remain static over the course of a day. During the sixteen or so hours we’re awake, they change—often in a regular, foreseeable manner. We are smarter, faster, dimmer, slower, more creative, and less creative in some parts of the day than others ». Les courbes de variation d’énergie perçue durant la journée sont remarquablement similaires d’une personne à l’autre, d’un métier à l’autre ou d’un pays à l’autre. Le début de l’après-midi est difficile, je cite Daniel Pink : « One British survey got even more precise when it found that the typical worker reaches the most unproductive moment of the day at 2:55 p.m.”. Bruce Dailey cite d’autres exemples du même livre : « So, as Daniel Pink noted in his 2018 book When, judges tend to hand down harsher sentences after lunch and doctors tend to make less accurate diagnoses». Lorsque l’énergie baisse, nous préférons les interactions au travail qui nécessite de la concentration : « separate study into office interactions has suggested that 2.30 p.m. to 4 p.m. is the noisiest time. Afternoons seem to be most prone to chat and conversation. This is something you can build on to create a day that both manages work flow and produces ideas ».  Ce que recommande Bruce Daisly est d’utiliser les différents moments de la journée pour différents types d’activité, en se rappelant que même s’il y a des « patterns » communs, il y a aussi des spécificités individuelles.

La gestion du temps n’est pas la maximisation du travail. La gestion du temps est souvent vue, ou enseignée dans les séminaires de « self-improvement », comme une approche pour en faire plus durant la même quantité de temps. En vertu de ce qui a été dit dans les sections précédentes (le besoin de buffers et de breaks) ce n’est pas ce que propose Bruce Daisley, il s’agit plutôt d’utiliser la temporalité (ce que la chrono-analyse nous enseigne sur les moments de la journée) pour maximiser notre énergie et notre attention. La notion du « juste moment pour les choses », le sujet du livre de Daniel Pink, ne se réduit pas aux heures de la journée ou les jours de la semaine, le « juste moment » dépend du contexte et des protagonistes. Bruce Daisley nous met en garde contre le « As Soon As Possible (ASAP) » qui est l’opposé du « juste moment » : «That familiar acronym ASAP can create an unnecessary level of anxiety in an office ». Pousser ses demandes tout de suite en permanence (le contraire du lean) n’est pas efficace, il faut savoir les conserver pour le « juste moment » de celui qui va fournir le travail (un point 121, une rencontre, une réunion …).

Nos biorythmes sont complexes, une superposition de cycles de fréquences différentes, ce qui conduit à la fois à faire des choses différentes à différents moment de la journée, et d’organiser son temps quotidien avec une alternance de temps forts et faibles : « Most people work best in ninety-minute energy cycles. Getting ourselves ready to maximise the output of each cycle is the best way to get the most from our work ». On retrouve la même idée sous la plume de Daniel Pink : « A psychologist who studies extraordinary performers, Ericsson found that elite performers have something in common: They’re really good at taking breaks ».  Bruce Daisley résume ces deux aspects combinés de la chrono-analyse comme suit : « Two necessary changes to our working habits flow from this. Firstly, we should carry out important activities before lunch. Our mind is freshest then and most able to power through complex cognitive challenges. Secondly, we should stop thinking that we’re going to get more done by not taking a break ».  

2.7 L’importance fondamentale de la synchronicité pour le plaisir, la réactivité et l’efficacité


Une des idées fondamentales des nouvelles méthodes de travail mieux adaptées à la complexité, depuis le développement agile au équipes autoorganisées en passant par le lean management, est la notion de synchronicité. La synchronicité consiste à mettre une équipe ensemble, sur le même lieu et au même moment, sur le même sujet et avec le même contexte. La synchronicité s’oppose à l’asynchronicité des modèles bureaucratiques et de la répartition des tâches, hérités du management scientifique de Frederick Taylor.  La synchronicité permet d’aborder des situations et des problèmes plus complexes, elle est également un facteur d’engagement et de satisfaction : « All the evidence suggests that humans derive joy from being in synchrony with those around us. Sometimes this synchrony can take the form of highly choreographed actions – dancing with others, singing in a choir, sharing a crowd’s delight in sporting success. When we’re in harmony with others we tend to sense a moment of euphoria ».  La synchronicité n’est pas qu’une question d’organisation, c’est également une question de culture. Bruce Daisley donne de multiples exemples qui encouragent ce partage de contexte, pour simplifier et approfondir les échanges professionnels par la suite : « Of course, pizza meetings turned out to be about rather more than pizza, cramped space and fun. In Puleston’s view: ‘There was definitely a synchronisation part to that meeting. All cultures require synchronisation and it’s important because it makes knowledge common. The emotional content of that meeting is what made it what it was, and made it so effective.’ And did food help? ‘Food is essentially what brings people to the table but then it’s all about what you say, and the intent of the meeting ».  Ce partage des repas est à la fois un booster d’efficacité et de satisfaction au travail : « Planning to spend a couple of lunch breaks a week sitting with colleagues can boost your happiness ».

Cette synchronicité se cultive en multipliant les occasions de communication sous toutes ses formes : « Constant communication, then – by which I mean informal, unscheduled chat, not formal, pre-arranged meetings – is the essential oil that lubricates an enterprise and ensures its smooth running. It’s what creates Sync. The question is: what’s the best way to ensure that it happens? ». Ce besoin de synchronicité pose une contrainte sur la co-localisation. Il permet de comprendre l’avantage important des équipes co-localisées par rapport aux modèles de distribution géographique. Lorsque la co-localisation n’est pas possible, il faut beaucoup de créativité, de rituels, de voyages pour créer ces conditions de synchronicité. La même remarque s’applique au télétravail : il faut trouver un équilibre. Certaines tâches s’exécutent mieux dans un environnement calme et isolé, mais il faut aussi garder des opportunité de synchronisation, émotionnelle et informelle : «  When you work from home it doesn’t just affect you. You dramatically reduce the performance of people you work with by being at home. Waber feels that the reduction in ideas flow that home working produces reduces the collective intelligence of teams. Staying at the kitchen table is not the answer. You need a balance ».

2.8 Les fondamentaux des équipes autonomes, motivées et engagées


La synchronicité et l’autonomie conduisent à développer des équipes plus engagées et plus efficaces. Bruce Daisley donne plusieurs exemples tirés du développement logiciel, pour lesquels la synchronisation entre les membres de l’équipe est un facteur direct d’efficacité : « Having looked at decades’ worth of research he has even been able to quantify the shortfall created by remote working among software engineers: ‘If my code depends on your code and we don’t communicate,’ he believes, ‘it takes us 32 per cent longer to complete that code’ ». Les équipes qui sont bien synchronisées commettent moins d’erreur, ce qui avait déjà été mis en avant par Christian Morel cité plus haut. Les exemples tirés de l’aéronautique sont nombreux : « It should come as no surprise that the safest crews on the planet tend to be the ones who know each other best. Organisational psychologist Adam Grant points out that ‘over 75 per cent of airline accidents happen the first time a crew is flying together’ ».

Les équipes sont plus efficaces lorsque leur taille est limitée. Je ne m’étends pas car ce sujet est abondamment évoqué ailleurs. Bruce Dailey tire certains exemples de l’approche Scrum: « The other striking feature of Scrum is its emphasis on team size. Chucking people at a problem, while tempting, is rarely the answer. Instead, Sutherland believes, teams should be kept as tight as possible – ideally to around seven people, give or take one or two ». Ce principe s’applique aux équipes opérationnelles comme aux équipes de management : « For Patrick Lencioni, a world-renowned coach to some of the world’s most senior business management teams, this fundamental principle extends right to the top. If large project teams are inefficient, so too are large management teams. Equally important, in Lencioni’s view, their very size precludes their members from speaking truth to power ».

Une équipe soudée et unie est capable de collaborer à la résolution de problème et de construire une intelligence collective, mais il ne faut pas non plus la réduire par homogénéisation : ses membres sont différents et ont leur propre expertise. Bruce Daisley nous met en garde contre l’abus du « brainstorming » : « The writer Susan Cain believes that the reason why we like to believe in the power of the brainstorm is that the groupthink of the modern age celebrates the habits of extroverts at the expense of the less evident action of introverts. She argues that the rise of performative arts and culture that we witnessed through the twentieth century resulted in a favouring of the skills of the half of society who are extroverted ». La bonne équipe comprend les bonnes expertises, en conservant une taille raisonnable. Lorsque le poids de la communication - qui augmente de façon quadratique avec la taille de l’équipe - devient trop important, l’efficacité chute brutalement et de façon massive. Il cite une étude dans laquelle la mauvaise organisation d’une équipe trop grande se traduit par une dégradation nettement supérieure à un facteur 10 : « And he discovered that the x 10 factor was way off. Once you allowed for the complexities of teams, discussions, presentations, status chats, emails and reviews, he discovered, the time spent on a badly organised project seemed to increase exponentially. ‘It actually didn’t take the slow team ten weeks to do what the best team could do in one week,’ Sutherland concluded. ‘Rather it took them 2,000 weeks’ ». Cet exemple spectaculaire est conforme à ma propre expérience : lorsque pour répondre à un retard important, on ajoute des ressources de façon importante, mais distribuée géographiquement et sans résoudre les problèmes de communication – par exemple en minimisant les voyages – on peut facilement stopper l’exécution d’un projet.

3.  Conclusion


Le lecteur régulier de ce blog ne devrait pas trouver de vraie surprise dans les sections précédentes, mais l’avancée des neurosciences et de la sociologie quantitative rend la science de plus en plus pertinente sur l’optimisation de l’organisation du travail. Ce compte-rendu est forcément biaisé car je souffre  du « biais de confirmation », puisque j’ai trouvé dans sa lecture des arguments scientifiques qui confirme ce que je pense depuis 10 ans, à partir de mon expérience de manager ou de mes résultats de simulation.
Ce que j’apprécie particulièrement, c’est que ce livre propose une synthèse claire et documentée sur un ensemble de principes qui auparavant étaient répartis dans de nombreux ouvrages ou témoignages. Voici par exemple ma petite bibliographie personnelle sur les sujets que nous venons d’aborder :


J’ai trouvé également un parallèle intéressant avec l’article « 7 conseils pour éviter le burn-out » du dernier numéro de Challenge (n°609) contre le burn-out :
  • Reprendre le contrôle du temps
  • Alléger sa charge mentale
  • Réussir sa déconnexion digitale
  • Se libérer du bureau (faire des breaks)
  •  S’investir raisonnablement (équilibre pro/perso)
  • Apprendre à dire non (lisser sa charge)
  • Fuir les cultures d’entreprises toxiques (je n’en ai pas parlé ici, mais une partie importante du livre est consacrée au mauvais managers … et comment les éviter)



jeudi, février 28, 2019

Systèmes d’information et transformation digitale





1. Introduction


J’ai eu le plaisir de participer à «Complex Systems Design and Management » (CDSM 2018) en Décembre dernier et d’intervenir sur « les systèmes d’information au service de la transformation digitale ». Cet exposé s’inscrivait dans la série sur les « systèmes d’information exponentiels », une métaphore que j’emprunte librement au livre de Salim Ismail, « Exponential Organizations ». Les « organisation exponentielles » (ExO) sont les entreprises dont les organisations sont tournées vers l’absorption et la valorisation du flux continu d’opportunités apportées par le développement exponentiel des nouvelles technologies (apprentissage machine, intelligence artificielle, etc.). Ce qui caractérise une ExO, c’est sa structure en réseau autonome orientée vers l’extérieur et son rythme élevé de changement permanent (on retrouve la notion d’homéostasie digitale). De la même façon, le système d’information exponentiel se caractérise par son rythme élevé de renouvellement permanent et ses frontières multiples avec les différents écosystèmes logiciels qui portent ces progrès continus des technologies exponentielles.

La transformation digitale, tout comme la capture des opportunités technologiques telle que l’intelligence artificielle, est avant tout une stratégie métier qui doit être portée par les acteurs opérationnels de l’entreprise. Mais cette transformation requiert des capacités digitales, qui s’expriment en termes de logiciel et de systèmes d’information. La transformation digitale n’est pas une question de technologie, mais elle ne peut avoir lieu sans que les capacités technologiques soient au niveau requis par la compétition internationale. C’est ce que je résume ici en disant qu’il ne peut y avoir de succès pour une entreprise dans le monde numérique dans lequel nous vivons sans maitriser les « codes » des systèmes d’information exponentiels. Cette idée est déjà exprimée depuis 10 ans dans l’ouvrage fondamental d’Octo « Les Géants du Web », mais au fur et à mesure que le « logiciel dévore le monde », ceci devient de plus en plus fondamental. Les acteurs métiers doivent s’emparer de leur futur numérique, ils ne peuvent ni l’outsourcer – si c’est possible, c’est en général un mauvais signe - ni le confier à des départements digitaux spécialisés, mais ils doivent comprendre que le jeu numérique est dominé par les capacités. Il ne s’agit pas de bien penser, il s’agit de bien faire.

Les slides de mon intervention CSDM sont disponibles sur Slideshare . Mais mon expérience est qu’il est facile de mal interpréter des slides sans le commentaire oral. Ce billet de blog est donc un petit texte d’accompagnement des slides pour insister sur les points principaux. Il n’est pas complet car le billet serait trop long, et ce sont des sujets que j’ai abordés plusieurs fois. Le billet reprend la structure de l’exposé et organisé comme suit. La Section 2 parle de la transformation digitale, selon un ensemble d’axes : la réinvention des processus métiers, la révolution de la relation client, l’importance des chaines de valeurs étendues et des écosystèmes de partenaires, en particulier dans le monde numérique. La section 3 est consacrée aux « systèmes d’informations exponentiels », selon le sens que nous venons de définir. Nous allons caractériser ce qui les rend aptes à absorber un flux constant d’innovations technologique et à restituer cette agilité comme plateforme de transformation pour l’ensemble des métiers de l’entreprise. La dernière section s’intéresse à quelques aspects de la transformation interne que les directions des systèmes d’information (DSI) doivent entreprendre pour transformer leurs systèmes d’informations afin qu’ils deviennent la colonne vertébrale de la transformation digitale de leur entreprise.


2. Quelques enjeux de la transformation digitale



La digitalisation est au cœur des enjeux de l’industrie 4.0, elle change profondément les modes de travail ainsi que les horizons de la réinvention des processus métiers.       Cette transformation – désignée également par « Digital Manufacturing » - n’est pas facile à appréhender car il s’agit d’une révolution déguisée en évolution.  Il y a trois composants majeurs : la capacité des technologies digitales et exponentielles à aller encore plus loin dans l’automatisation des station de travail de l’usine (au premier coup d’œil, dans une continuité parfaite avec ce qui se passe depuis de nombreuse décennies), la capacité à construire un jumeau numérique (« digital twin ») de l’usine qui sert ensuite - grâce à la simulation, la prévision et l’optimisation - à  réinventer et réagencer les processus de l’usine, et pour finir, la création d’un espace de travail actif qui agit en symbiose avec les opérateurs dans un principe d’augmentation (l’ensemble de l’environnement devient un outil intelligent, grâce au progrès de toutes les technologies : senseurs, miniaturisation des actionneurs, nouveaux matériaux, etc.). Ce qui rend cette nouvelle poussée de l’automatisation plus « révolutionnaire », c’est la capacité de l’intelligence artificielle à « absorber de la complexité ».  Bien entendu, ces trois axes ne sont pas séparés, ils se complètent et s’enrichissent. L’arrivée massive de l’IOT (senseurs partout, dont la vidéo-capture et objets connectés) sert à la fois à construire cet environnement pour « humains augmentés » et à nourrir le jumeau numérique. Je vous renvoie par exemple à ce que Merck a fait en utilisant un « digital twin » pour améliorer le rendement de ces chaines de fabrication de vaccins.


L’explosion exponentielle des technologies et usage numérique transforme radicalement la relation entre les entreprises et leurs clients. Ceci est très bien expliqué dans le livre de Marco Tinelli, « Le Marketing Synchronisé », où plus récemment illustré par les démonstrations spectaculaires (même si quelque peu critiquées) de Sundar Pitchai sur Google Duplex. Le premier secret de la relation client dans le monde digital est de rendre le contrôle de son expérience au client. Cela exige de mieux le comprendre mais surtout de mieux l’écouter (d’où le slogan fondamental du Cluetrain Manifesto : « Markets are conversations »). C’est un des paradoxes du monde digital moderne, il faut écouter au lieu de deviner ce que veut le client, mais, pour lui rendre du « temps utile », il faut également optimiser les « customer journeys » grâce à la personnalisation et l’anticipation. C’est évidement ici que les techniques de big data, apprentissage et intelligence artificielle sont nécessaires. Qu’il s’agisse de l’exemple d’Amadeus cité dans le rapport de l’Académie des technologies ou celui de IGH cité dans « The Mathematical Corporation »,  les progrès des techniques d’apprentissage permettent de faire une segmentation beaucoup plus précise des attentes des clients. Pour profiter de ces progrès et proposer à ses clients une expérience plus pertinente et plus efficace, il faut faire des choix d’écosystèmes et de partenaires, car très peu d’entreprises peuvent se permettre d’être autonomes sur ces sujets. L’exemple spectaculaire de l’intégration de Siri (Apple) et Einstein (Salesforce) montre la puissance des écosystèmes interconnectés. 



Dans un monde numérique, la supply chain est intimement mêlée avec le processus de gestion de la demande de chaque client.  L’optimisation de l’approvisionnement devient de plus en plus réactive, en mélangeant des prévisions de plus en plus fines et récentes avec des flux d’événement de commandes traitées en temps quasi-réel. L’augmentation de la complexité n’est pas que temporelle, la satisfaction client passe par un volume sans cesse croissant du nombre de références et de configurations. L’image des entrepôts d’Amazon servis par des robots Kiva est une métaphore de l’importance des technologies exponentielles pour traiter la complexité grandissante de la demande. Cette intégration fonctionne également dans le sens inverse : les clients s’attendent à pouvoir suivre leurs commandes en temps réel. Cela suppose que les différentes plateformes impliquées dans la chaine d’approvisionnement fournissent en temps réel les données sous forme d’API. Cette double intégration permet d’utiliser des approches d’intelligence artificielle pour optimiser des systèmes larges, complexes et stochastiques sur une échelle très différentes de ce qui était possible jusqu’alors (les limites technologiques des précédentes décennies ont conduit à appliquer les méthodes d’optimisation sur des segments de la chaîne). L’exemple de la FAA qui a été capable d’extraire des nouvelles informations et des nouvelles approches de pilotage de l’analyse des vols sur 3 ans est emblématique. Il est possible de traiter des masses considérables de données complexes – et bruitées – pour mieux comprendre des phénomènes complexes (comme les cascades d’enchainements de retards).


La « digitalisation » des connaissances permet de réinventer les processus de développent produit et d’optimiser la recherche et développement. C’est une des idées clés du livre « Human + Machine », avec des exemples multiples. Il faut bien se dire que pour chaque exemple connu (des pointes d’athlétisme de Nike au cookies optimisés avec Tensor Flow), il en existe bien plus qui ne sont pas connus pour des raisons de confidentialité. L’efficacité de l’apprentissage automatique et des approches génératives est maintenant avérée pour optimiser les processus de recherche et développement, et nous n’en sommes qu’aux premiers pas. Cette utilisation de l’intelligence artificielle n’est pas « à la place » des experts humains, mais en appui, c’est même une nouvelle façon de formaliser et d’enrichir des connaissances métiers. L’expérience montre que les méta-datas, les observations et annotations des experts métiers sont fondamentales pour orienter les outils d’apprentissage automatique. Créer un corpus de jeux de données annotés est un acte fondateur d’une stratégie d’intelligence artificielle, et c’est une démarche métier créatrice de valeur par différenciation. On peut voit la plateforme d’entrainement d’une solution d’apprentissage automatique comme un outil collaboratif permettant de capturer, raffiner et étendre les connaissances propres aux processus métiers.


La transformation numérique est la manifestation visible de l’emprise sans cesse croissance du logiciel dans tous les métiers des entreprises. Cette omniprésence du logiciel pose deux problèmes aux entreprises : comment s’organiser pour devenir “une entreprise logicielle” capable de produire les outils numériques qui supportent sa vision stratégique ? et comment s’adapter en continu aux exigences de son environnement et en particulier de ses clients, qui ont un impact direct sur les choix technologiques. Les deux questions sont liées, car la seule façon de relever le défi de l’accélération logicielle est de profiter des écosystèmes, d’utiliser les plateformes (les siennes mais surtout celles des autres) pour obtenir un effet de levier (“produire plus en travaillant moins”). Jouer “le jeu des plateformes” signifie à la fois comprendre que c’est aujourd’hui le client qui est “l’architecte de son expérience” et qui choisit “le terrain de jeu numérique” sur lequel l’entreprise doit évoluer, et donc se mettre en capacité “d’exposer ses services”, de savoir projeter de façon modulaire et recomposable ses savoir-faire dans des écosystèmes logiciels tiers. Penser plateforme, c’est aussi savoir attirer les talents et les partenaires, à la fois avec une proposition de co-création de valeur claire, mais également en partageant les codes du monde logiciel ouvert, pour réduire la friction et les coûts de transaction.




3. “Systèmes d’information exponentiels”



Le système d’information est la colonne vertébrale des capacités digitales de l’entreprise. Le fait que le “logiciel dévore le monde” ne signifie pas que le système d’information absorbe le métier. Chaque domaine métier, chaque maillon de la chaîne de valeur, doit conduire sa propre transformation numérique, avec des contraintes, des opportunités et des caractéristiques d’environnement propres. Comme cela a été dit, cette transformation est entre les mains des acteurs métiers, et le système d’information n’est pas un outil d’uniformisation. En revanche c’est un outil d’intégration, de partage et de standardisation. C’est également une plateforme propre à l’entreprise, un outil de capitalisation technologique. Beaucoup de “capacités digitales” en termes d’intégration (API, orchestration, gestion des flux, ...) et de maîtrise (cybersécurité, haute disponibilité, gestion des identités et des rôles, ...) sont plus efficacement rendues par une plateforme partagée (le SI) que par une instanciation multiple dans des plateformes digitales par domaine métier.


Un système d’information exponentiel est construit pour faciliter l’intégration et l’utilisation du flot continu de technologies pour l’intelligence artificielle et l’apprentissage automatique. Je vous renvoie ici au rapport de l’Académie des technologies et aux différents conseils que j’ai déjà évoqués précédemment. L’intelligence artificielle est une opportunité diffuse, qui touche tous les aspects de l’entreprise. Elle se manifeste sous forme d’un grand nombre d’outils et de techniques qui permettent de faire émerger des solutions locales si les données et les conditions matérielles et technique de l’expérimentation sont partout présentes. Le système d’information a donc la double fonction de permettre la mise à disposition continue et incrémentale de données, et celle de permettre l’assemblage agile de systèmes apprenants. Les progrès spectaculaires de l’apprentissage profond ont donné aux processus des entreprises « des yeux et des oreilles » … et plus généralement une capacité de perception qui justifie que celles-ci investissent dans la collecte massive de données et la mise à disposition de moyens de calculs importants (la vitesse de l’apprentissage global de l’entreprise dépend de la fréquence de son cycle d’expérimentation et de synthèse de nouvelles connaissances). Comme cela est souligné par l’académie des technologies, l’ingénierie logicielle est un support fondamental à la pratique des technologies exponentielles, à cause de la nature cybernétique des systèmes intelligents… et la richesse des méta-heuristiques d’assemblage des composants élémentaires de l’IA.


Un système d’information exponentiel hérite des propriétés et de l’architecture des systèmes réactifs. La finalité d’un système réactif est d’interagir de façon continue avec son environnement. En conséquence, sa première caractéristique est l’ouverture, sa capacité à ouvrir des interface (API) sur ses frontières, de façon modulaire et recomposable. Ceci est très bien expliqué dans « Exponential Organisations » : il ne suffit pas d’être ouvert, il faut être adaptable et flexible (cf. la section précédente). L’assemblage réactif au sein de systèmes de systèmes conduit à une approche par événements (Event-Driven Architecture). Une des caractéristiques des systèmes digitaux moderne est la scalabilité dans le traitement des flux d’événement au moyen de technologies de type kafka. La scalabilité au moyen de distribution massive n’exclue pas une forme de biomimétisme en utilisant des modèles hiérarchiques d’événements pour composer des sous-systèmes par abstraction (dans le monde de l’IOT, tous les événements n’ont pas vocation à circuler librement). La réactivité des systèmes exponentiels s’implémente à travers le traitement contextuel ( « intelligent » et/ou apprenant), par exemple avec des technologies de type CEP (Complex Event Processing)


La caractéristique principale d’un système d’information exponentiel est d’être organisé pour changer de façon continue, suivant un rythme élevé. La principale différence entre l’ingénierie des systèmes d’information d’aujourd’hui et celle d’il y a 15 ans, lorsque j’étais DSI de Bouygues Telecom, est l’accélération du rythme de changement. Ce rythme est imposé à la fois par les exigences métier et par celles des technologies. C’est précisément la thèse centrale du livre “Exponential Organizations”. L’impact sur le système d’information est fondamental : comment s’organiser pour que, comme chez Google, la moitié des modules soient recompiles et réintégrés chaque mois. Une première idée simple est qu’il faut réduire la « masse » du SI pour pouvoir le faire accélérer plus facilement, pour suivre la métaphore de la loi de Newton. Cette masse est une abstraction qui recouvre la taille tout autant que la complexité. Pour changer rapidement, il faut à la fois moins de code, du code plus élégant et du code plus modulaire. Dans ce nouveau monde où le SI évolue constamment, le processus de fabrication/déploiement devient plus important que l’objet fabriqué. C’est pour cela que les approches CICD/DevOps qui s’appuient sur des « software factories » deviennent fondamentales et inévitables (comme le rapporte le livre « Accelerate »). Le système d’information n’est plus un empilement de « boites » (qui produisent des services) mais de « flux » (qui modifient des boites). L’assemblage des composants doit également présenter la même facilité de modification continue, ce qui a conduit en moins de 20 ans à passer d’outils rigides d’intégration à l’utilisation de scripts de haut niveau d’abstraction (« integration as code »). Dans un monde de changement permanent, l’assemblage de « boites noires » laisse la place à un assemblage de « boîtes blanches » dont le code est disponible, lisible et compact (haut niveau d’abstraction).


Dans un assemblage de plateformes qui évoluent et se renouvelle sans cesse, l’architecture de données est le principe fondateur stable du système d’information exponentiel. La circulation des données exige une sémantique partagée, sous la forme d’un modèle d’objet métiers, que nous appelions les objets pivots il y a vingt ans. Cela peut sembler évident, mais une stratégie d’API ouvertes de type REST (accès http à des objets métiers) exige un modèle sémantique partagé.  Ce qui change dans les systèmes modernes massivement distribués, c’est la frontière du « théorème CAP » : puisque la distribution et la résilience sont des caractéristiques intrinsèques du monde numérique, la consistance du modèle transactionnel/ACID devient une « consistance éventuelle » avec des modes opératoires qui évoluent en conséquence. Pour simplifier, on peut dire que la notion d’exactitude se transforme en « fraîcheur des données ». La consistance n’est plus une propriété globale et universelle, elle se décline à travers les processus métiers et les « customer journeys » (un sujet que je traite abondamment dans mon livre sur l’urbanisation).  Dans cet univers de données qui changent et circulent de façon permanente, les stocks de données laissent la place aux flux d’événements qui matérialisent ces changements. C’est ce qu’on appelle le « event sourcing » : une déconstruction du concept de base de données au profit du traitement direct du flux des événements de mise à jour. Ce n’est pas un pattern universel, il reste des besoins de « single source of truth » et de comportements transactionnels, mais l’approche par flux permet à la fois une très forte scalabilité et la coexistence de traitements chauds et froids.



4. Transformation des DSI vers des usines à plateformes 

Pour obtenir une adaptation permanente à son environnement, le système d’information s’appuie sur une architecture modulaire multimodale, dont différentes parties, découplées par des API, peuvent évoluer a des rythmes différents. Tout comme dans l’approche BetaCodex  des organisations adaptatives, la métaphore de l’organisme unicellulaire est pertinente car elle permet de comprendre que le changement vient (majoritairement) de l’extérieur, et que l’organisation interne modulaire doit permettre d’accommoder des vitesses différentes d’évolution. Une architecture muti-modale permet d’intégrer des parties plus anciennes et moins agiles avec une « frontière » qui est synchronisée avec les besoins de l’environnement. Dans cette vision, les API jouent le rôle de « joints de dilatation » temporels. Elles sont à la fois les pivots de la construction incrémentale et de la déconstruction (le décommissionnement des « monolithes » est facilité par un découpage modulaire de type SOA). Cette approche multimodale est récursive, elle s’applique également aux sous-systèmes ; cela implique, dans le choix de ses partenaires logiciels, de travailler avec des acteurs qui partagent cette vision de mise à disposition des capacités via des API.

Un des ennemis principaux des DSI pour construire un SI exponentiel est l’accumulation de la dette technique. La dette technique est toujours un handicap, mais son poids s’accroît au fur et à mesure que la vitesse de changement requise augmente. Toujours pour reprendre la métaphore physique (de l’énergie cinétique), plus vous allez vite, plus l’inertie (la masse) est un problème. Le nettoyage permanent de la complexité inutile devient donc une hygiène de vie obligatoire, à toutes les échelles (depuis le refactoring du code jusqu’au refactoring de l’architecture d’entreprise). Les bonnes pratiques de l’architecture d’entreprise – rechercher la modularité et le découplage – sont encore plus importantes lorsque le SI est soumis à un taux accéléré de « rafraichissement ». A l’automatisation de l’ajout (qui est l’objectif implicite du CICD) il faut ajouter l’automatisation du retrait. Cela passe par la capacité de purger les systèmes de leurs données, d’automatiser les reroutages pour faciliter les « débranchements ». Mon expérience des 20 dernières années est que les mêmes ingénieurs qui se plaignent de la difficulté à décommissionner les « legacys » créés par nos anciens passent peu de temps à contempler le moment inévitable où leur produit logiciel subira le même sort. Le nettoyage constant de la dette technique est une tâche « full stack » ; pour éviter qu’elle devienne insurmontable, il faut s’appuyer le plus possible sur l’automatisation, ce qui conduit à envisager la mise à niveau (depuis le patching pour la cybersécurité jusqu’aux updates nécessaires pour les composants logiciels de service) comme un processus continu à tous les niveaux (infrastructure, OS, middleware, composants, …). Ceci est grandement facilité par les outils logiciels modernes comme la « containarisation ».


La haute disponibilité est une caractéristique essentielle d’une plateforme digitale et d’un système d’information exponentiel.  L’absence de « down time » est une des premières attentes des clients au sujet de leurs expériences numériques. Les approches des « Géants du Web », comme Google, méritent d’être étudiées et copiées. Une partie des recommandations, comme l’importance de du découplage et de la redondance pour éviter les SPOF, est classique et fait partie des fondamentaux de la « haute disponibilité » dans tous les bons ouvrages. En revanche, les outils évoluent rapidement et ce qu’on peut obtenir aujourd’hui en utilisant massivement le monitoring et l’automatisation (cf. les préconisations de « Google Site Reliability Engineering ») est profondément plus large que ce qu’on pouvait faire il y a 10 ans. Le monitoring proactif, avec son utilisation de l’apprentissage pour faire de la maintenance prédictive, permet à la fois d’éviter des incidents et de corriger beaucoup plus vite. L’automatisation permet de réduire les erreurs manuelles qui restent associées à la majorité des incidents. Les bonnes pratiques d’aujourd’hui, en utilisant les outils modernes (dont un grand nombre sont en open source) permettent de réaliser une grande partie des ambitions de l’autonomic computing :  self-monitoring, self-provisioning, self-optimization and self-healing. Les pratiques de « chaos engineering » donnent une nouvelle dimension au DRP (disaster recovery planning) : on passe du test exceptionnel qui a lieu une fois par an à une approche multi-échelle régulière qui augmente considérablement la faculté de disposer de la redondance le moment venu (puisque comme le dit Werner Vogel depuis plus de 10 ans, « everything fails all the time»).

Dans le monde numérique, l’ingénierie des performances est une discipline essentielle car la performance est une exigence fonctionnelle des clients. Ce point est parallèle à l’exigence de haute disponibilité que nous venons de développer. Le monitoring et la prévision des performances - en particulier le capacity planning  font partie de la culture des opérations digitales. La même remarque s’applique sur le développement des outils (en particulier open-source, à la suite des développements créés par les « géants du web ») : il est beaucoup plus facile aujourd’hui de piloter (monitoring) et de prévoir. Le domaine AIOps (Artificial Intelligence for IT Operations) se développe rapidement et les méthodes d’apprentissage permettent à la fois d’améliorer la disponibilité et de garantir les performances. Le développement du Cloud, à la fois comme plateforme d’hébergement mais également comme fournisseur de service métier signifie que le suivi, l’analyse et la prévision des performances des processus métiers évoluent et augmentent en abstraction (on passe d’un monitoring technique proche des machines à un monitoring métier sur des événements liés à des services). Cela exige pour les nouveaux services de disposer d’API d’introspection, puisqu’il n’est plus forcément possible de « parler aux machines » qui hébergent ces services.

La qualité du code est une condition nécessaire qui s’obtient en développant une culture d’excellence logicielle. Transformer son SI en ExIS (Exponential Information Systems) pour supporter la transformation digitale requiert à son tour une transformation profonde de la DSI, en termes de compétences et d’attitudes. C’est en premier lieu un défi d’apprentissage permanent. Ce flux constant de nouvelles techniques et de nouveaux outils exige une culture d’expérimentation (« Learn by doing ») et une valorisation de la curiosité et de l’apprentissage. Cette curiosité doit s’appliquer à l’innovation tout comme à la résolution de problème (kaizen) et l’analyse des post-mortem. C’est ensuite une question de reconnaissance des compétences et savoir-faire techniques. Le terme anglais de « software cratftmanship » (artisanat logiciel) rend bien compte de l’importance de la pratique et de l’expérience. Les développer prend du temps et exige la reconnaissance de l’entreprise (en particulier pour ne pas perdre ses meilleurs éléments). Il s’agit d’un formidable défi collectif qui ne peut être relevé que dans une culture de partage et de réutilisation, ce qui passe également par la fierté (« pride ») du travail bien fait et du logiciel bien écrit. Même si cela dépasse le cadre de ce billet, les approches Lean et Agile que j’ai évoquées dans plusieurs billets forment un cadre pour développer cette culture d’apprentissage et d’amélioration continue.

5. Conclusion 


Pour conclure, je veux souligner une idée simple mais profonde : le système d’information exponentiel est une usine à plateformes logicielles. Il y a trois raisons essentielles. La première est que la plateforme est une « micro usine » à service, elle est par nature adaptée au changement permanent du monde numérique. La plateforme est la traduction concrète de l’idée que le flux est plus important que le stock. La plateforme permet de s’adapter à la rapidité de changement des besoins en termes de produits et services. La deuxième raison est que la plateforme permet l’assemblage et l’intégration de la valeur produit par d’autres. La plateforme est un outil pour démultiplier la capacité de production logicielle en associant d’autres acteurs externes à l’entreprise. La troisième raison est que la plateforme matérialise le concept d’une frontière ouverte du système d’information, tout en maitrisant les risques de dilution ou de perte de propriété intellectuelle. La plateforme au travers de ses API définit les « pointillés de cette frontières », ce qui est ouvert et ce qui ne l’est pas.

La transformation digitale le plus souvent ne se discute pas, elle est imposée par l’extérieur, qu’il s’agisse des clients ou des partenaires des chaînes de valeur. En revanche, la façon de se transformer, la stratégie d’exposition de service et la maîtrise des écosystèmes détermine si l’entreprise a pour vocation de délivrer son expertise en back-office d’autres acteurs qui s’approprient l’expérience client (la crainte classique de désintermédiation) ou si cette entreprise peut jouer un rôle d’orchestration de premier plan dans son propre écosystème métier.  Pour ne pas se retrouver dans un rôle de fournisseur d’API métier qui deviennent des commodités, les capacités numériques et logicielles sont déterminantes dans l’exécution de la stratégie numérique. Il est toujours possible de chercher à reconquérir des positions (comme les hôtels face à booking.com et AirBnB, ou les taxis face à Uber) mais c’est plus difficile et requiert un niveau plus élevé de maitrise des capacités numériques. 

Le « drame » de la transformation digitale, c’est que la réussite des stratégies numérique passe par la construction de capacités d’ingénierie logicielle qui exigent une remise en cause profonde du modèle d’agence de l’entreprise. Malgré toutes les professions de foi sur l’agilité, le Taylorisme domine encore la majorité des modes de pensée managériaux. Construire les plateformes logicielles de demain et rassembler les compétences nécessaires, depuis les technologies exponentielles comme l’apprentissage machine ou l’intelligence artificielle jusqu’au techniques d’intégration en passant par les compétences d’architecture et de conception système, n’est pas une tâche impossible. Mais le niveau requis de compétences ne s’obtient que par la mise en place d’un système auto-apprenant qui exige la fin de ce Taylorisme. Autrement dit, la mise en place des nouveaux modes de travail (Lean et Agile par exemple) n’est pas un accélérateur pour l’exécution d’une stratégie numérique, c’est la condition nécessaire pour co-construire (en mêlant les compétences métiers et logicielles) les capacités nécessaires pour que la stratégie puisse être implémentée (le mot anglais « capability » est encore plus précis).

Construire un système d’information exponentiel est un défi passionnant. C’est pour cela que l’exposé CSDM se termine avec la figure que je reproduis ici. Ces petites icones sont des rappels de certains principes d’ingénierie système énoncés dans cet exposé.  Une partie des défis auxquels sont confrontés les systèmes d’informations sont classiques, on les retrouve dans tous les bons livres. Une autre partie est plus nouvelle et vient de l’accélération du rythme de changement. Ce qui est passionnant, c’est que la technologie de l’ingénierie des systèmes d’information, grâce aux développements des acteurs majeurs du Web et des communautés open source, a fait d’immense progrès et que nous disposons aujourd’hui d’outils, de patterns et de techniques qui rendent ce défi des ExIS (Exponental Information Systems) à notre portée.