jeudi, février 28, 2019

Systèmes d’information et transformation digitale





1. Introduction

J’ai eu le plaisir de participer à «Complex Systems Design and Management » (CDSM 2018) en Décembre dernier et d’intervenir sur « les systèmes d’information au service de la transformation digitale ». Cet exposé s’inscrivait dans la série sur les « systèmes d’information exponentiels », une métaphore que j’emprunte librement au livre de Salim Ismail, « Exponential Organizations ». Les « organisation exponentielles » (ExO) sont les entreprises dont les organisations sont tournées vers l’absorption et la valorisation du flux continu d’opportunités apportées par le développement exponentiel des nouvelles technologies (apprentissage machine, intelligence artificielle, etc.). Ce qui caractérise une ExO, c’est sa structure en réseau autonome orientée vers l’extérieur et son rythme élevé de changement permanent (on retrouve la notion d’homéostasie digitale). De la même façon, le système d’information exponentiel se caractérise par son rythme élevé de renouvellement permanent et ses frontières multiples avec les différents écosystèmes logiciels qui portent ces progrès continus des technologies exponentielles.

La transformation digitale, tout comme la capture des opportunités technologiques telle que l’intelligence artificielle, est avant tout une stratégie métier qui doit être portée par les acteurs opérationnels de l’entreprise. Mais cette transformation requiert des capacités digitales, qui s’expriment en termes de logiciel et de systèmes d’information. La transformation digitale n’est pas une question de technologie, mais elle ne peut avoir lieu sans que les capacités technologiques soient au niveau requis par la compétition internationale. C’est ce que je résume ici en disant qu’il ne peut y avoir de succès pour une entreprise dans le monde numérique dans lequel nous vivons sans maitriser les « codes » des systèmes d’information exponentiels. Cette idée est déjà exprimée depuis 10 ans dans l’ouvrage fondamental d’Octo « Les Géants du Web », mais au fur et à mesure que le « logiciel dévore le monde », ceci devient de plus en plus fondamental. Les acteurs métiers doivent s’emparer de leur futur numérique, ils ne peuvent ni l’outsourcer – si c’est possible, c’est en général un mauvais signe - ni le confier à des départements digitaux spécialisés, mais ils doivent comprendre que le jeu numérique est dominé par les capacités. Il ne s’agit pas de bien penser, il s’agit de bien faire.

Les slides de mon intervention CSDM sont disponibles sur Slideshare . Mais mon expérience est qu’il est facile de mal interpréter des slides sans le commentaire oral. Ce billet de blog est donc un petit texte d’accompagnement des slides pour insister sur les points principaux. Il n’est pas complet car le billet serait trop long, et ce sont des sujets que j’ai abordés plusieurs fois. Le billet reprend la structure de l’exposé et organisé comme suit. La Section 2 parle de la transformation digitale, selon un ensemble d’axes : la réinvention des processus métiers, la révolution de la relation client, l’importance des chaines de valeurs étendues et des écosystèmes de partenaires, en particulier dans le monde numérique. La section 3 est consacrée aux « systèmes d’informations exponentiels », selon le sens que nous venons de définir. Nous allons caractériser ce qui les rend aptes à absorber un flux constant d’innovations technologique et à restituer cette agilité comme plateforme de transformation pour l’ensemble des métiers de l’entreprise. La dernière section s’intéresse à quelques aspects de la transformation interne que les directions des systèmes d’information (DSI) doivent entreprendre pour transformer leurs systèmes d’informations afin qu’ils deviennent la colonne vertébrale de la transformation digitale de leur entreprise.

2. Quelques enjeux de la transformation digitale


La digitalisation est au cœur des enjeux de l’industrie 4.0, elle change profondément les modes de travail ainsi que les horizons de la réinvention des processus métiers.       Cette transformation – désignée également par « Digital Manufacturing » - n’est pas facile à appréhender car il s’agit d’une révolution déguisée en évolution.  Il y a trois composants majeurs : la capacité des technologies digitales et exponentielles à aller encore plus loin dans l’automatisation des station de travail de l’usine (au premier coup d’œil, dans une continuité parfaite avec ce qui se passe depuis de nombreuse décennies), la capacité à construire un jumeau numérique (« digital twin ») de l’usine qui sert ensuite - grâce à la simulation, la prévision et l’optimisation - à  réinventer et réagencer les processus de l’usine, et pour finir, la création d’un espace de travail actif qui agit en symbiose avec les opérateurs dans un principe d’augmentation (l’ensemble de l’environnement devient un outil intelligent, grâce au progrès de toutes les technologies : senseurs, miniaturisation des actionneurs, nouveaux matériaux, etc.). Ce qui rend cette nouvelle poussée de l’automatisation plus « révolutionnaire », c’est la capacité de l’intelligence artificielle à « absorber de la complexité ».  Bien entendu, ces trois axes ne sont pas séparés, ils se complètent et s’enrichissent. L’arrivée massive de l’IOT (senseurs partout, dont la vidéo-capture et objets connectés) sert à la fois à construire cet environnement pour « humains augmentés » et à nourrir le jumeau numérique. Je vous renvoie par exemple à ce que Merck a fait en utilisant un « digital twin » pour améliorer le rendement de ces chaines de fabrication de vaccins.

L’explosion exponentielle des technologies et usage numérique transforme radicalement la relation entre les entreprises et leurs clients. Ceci est très bien expliqué dans le livre de Marco Tinelli, « Le Marketing Synchronisé », où plus récemment illustré par les démonstrations spectaculaires (même si quelque peu critiquées) de Sundar Pitchai sur Google Duplex. Le premier secret de la relation client dans le monde digital est de rendre le contrôle de son expérience au client. Cela exige de mieux le comprendre mais surtout de mieux l’écouter (d’où le slogan fondamental du Cluetrain Manifesto : « Markets are conversations »). C’est un des paradoxes du monde digital moderne, il faut écouter au lieu de deviner ce que veut le client, mais, pour lui rendre du « temps utile », il faut également optimiser les « customer journeys » grâce à la personnalisation et l’anticipation. C’est évidement ici que les techniques de big data, apprentissage et intelligence artificielle sont nécessaires. Qu’il s’agisse de l’exemple d’Amadeus cité dans le rapport de l’Académie des technologies ou celui de IGH cité dans « The Mathematical Corporation »,  les progrès des techniques d’apprentissage permettent de faire une segmentation beaucoup plus précise des attentes des clients. Pour profiter de ces progrès et proposer à ses clients une expérience plus pertinente et plus efficace, il faut faire des choix d’écosystèmes et de partenaires, car très peu d’entreprises peuvent se permettre d’être autonomes sur ces sujets. L’exemple spectaculaire de l’intégration de Siri (Apple) et Einstein (Salesforce) montre la puissance des écosystèmes interconnectés. 


Dans un monde numérique, la supply chain est intimement mêlée avec le processus de gestion de la demande de chaque client.  L’optimisation de l’approvisionnement devient de plus en plus réactive, en mélangeant des prévisions de plus en plus fines et récentes avec des flux d’événement de commandes traitées en temps quasi-réel. L’augmentation de la complexité n’est pas que temporelle, la satisfaction client passe par un volume sans cesse croissant du nombre de références et de configurations. L’image des entrepôts d’Amazon servis par des robots Kiva est une métaphore de l’importance des technologies exponentielles pour traiter la complexité grandissante de la demande. Cette intégration fonctionne également dans le sens inverse : les clients s’attendent à pouvoir suivre leurs commandes en temps réel. Cela suppose que les différentes plateformes impliquées dans la chaine d’approvisionnement fournissent en temps réel les données sous forme d’API. Cette double intégration permet d’utiliser des approches d’intelligence artificielle pour optimiser des systèmes larges, complexes et stochastiques sur une échelle très différentes de ce qui était possible jusqu’alors (les limites technologiques des précédentes décennies ont conduit à appliquer les méthodes d’optimisation sur des segments de la chaîne). L’exemple de la FAA qui a été capable d’extraire des nouvelles informations et des nouvelles approches de pilotage de l’analyse des vols sur 3 ans est emblématique. Il est possible de traiter des masses considérables de données complexes – et bruitées – pour mieux comprendre des phénomènes complexes (comme les cascades d’enchainements de retards).

La « digitalisation » des connaissances permet de réinventer les processus de développent produit et d’optimiser la recherche et développement. C’est une des idées clés du livre « Human + Machine », avec des exemples multiples. Il faut bien se dire que pour chaque exemple connu (des pointes d’athlétisme de Nike au cookies optimisés avec Tensor Flow), il en existe bien plus qui ne sont pas connus pour des raisons de confidentialité. L’efficacité de l’apprentissage automatique et des approches génératives est maintenant avérée pour optimiser les processus de recherche et développement, et nous n’en sommes qu’aux premiers pas. Cette utilisation de l’intelligence artificielle n’est pas « à la place » des experts humains, mais en appui, c’est même une nouvelle façon de formaliser et d’enrichir des connaissances métiers. L’expérience montre que les méta-datas, les observations et annotations des experts métiers sont fondamentales pour orienter les outils d’apprentissage automatique. Créer un corpus de jeux de données annotés est un acte fondateur d’une stratégie d’intelligence artificielle, et c’est une démarche métier créatrice de valeur par différenciation. On peut voit la plateforme d’entrainement d’une solution d’apprentissage automatique comme un outil collaboratif permettant de capturer, raffiner et étendre les connaissances propres aux processus métiers.

La transformation numérique est la manifestation visible de l’emprise sans cesse croissance du logiciel dans tous les métiers des entreprises. Cette omniprésence du logiciel pose deux problèmes aux entreprises : comment s’organiser pour devenir “une entreprise logicielle” capable de produire les outils numériques qui supportent sa vision stratégique ? et comment s’adapter en continu aux exigences de son environnement et en particulier de ses clients, qui ont un impact direct sur les choix technologiques. Les deux questions sont liées, car la seule façon de relever le défi de l’accélération logicielle est de profiter des écosystèmes, d’utiliser les plateformes (les siennes mais surtout celles des autres) pour obtenir un effet de levier (“produire plus en travaillant moins”). Jouer “le jeu des plateformes” signifie à la fois comprendre que c’est aujourd’hui le client qui est “l’architecte de son expérience” et qui choisit “le terrain de jeu numérique” sur lequel l’entreprise doit évoluer, et donc se mettre en capacité “d’exposer ses services”, de savoir projeter de façon modulaire et recomposable ses savoir-faire dans des écosystèmes logiciels tiers. Penser plateforme, c’est aussi savoir attirer les talents et les partenaires, à la fois avec une proposition de co-création de valeur claire, mais également en partageant les codes du monde logiciel ouvert, pour réduire la friction et les couts de transaction.



3. “Systèmes d’information exponentiels”



Le système d’information est la colonne vertébrale des capacités digitales de l’entreprise. Le fait que le “logiciel dévore le monde” ne signifie pas que le système d’information absorbe le métier. Chaque domaine métier, chaque maillon de la chaîne de valeur, doit conduire sa propre transformation numérique, avec des contraintes, des opportunités et des caractéristiques d’environnement propres. Comme cela a été dit, cette transformation est entre les mains des acteurs métiers, et le système d’information n’est pas un outil d’uniformisation. En revanche c’est un outil d’intégration, de partage et de standardisation. C’est également une plateforme propre à l’entreprise, un outil de capitalisation technologique. Beaucoup de “capacités digitales” en termes d’intégration (API, orchestration, gestion des flux, ...) et de maîtrise (cybersécurité, haute disponibilité, gestion des identités et des rôles, ...) sont plus efficacement rendues par une plateforme partagée (le SI) que par une instanciation multiple dans des plateformes digitales par domaine métier.


Un système d’information exponentiel est construit pour faciliter l’intégration et l’utilisation du flot continu de technologies pour l’intelligence artificielle et l’apprentissage automatique. Je vous renvoie ici au rapport de l’Académie des technologies et aux différents conseils que j’ai déjà évoqués précédemment. L’intelligence artificielle est une opportunité diffuse, qui touche tous les aspects de l’entreprise. Elle se manifeste sous forme d’un grand nombre d’outils et de techniques qui permettent de faire émerger des solutions locales si les données et les conditions matérielles et technique de l’expérimentation sont partout présentes. Le système d’information a donc la double fonction de permettre la mise à disposition continue et incrémentale de données, et celle de permettre l’assemblage agile de systèmes apprenants. Les progrès spectaculaires de l’apprentissage profond ont donné aux processus des entreprises « des yeux et des oreilles » … et plus généralement une capacité de perception qui justifie que celles-ci investissent dans la collecte massive de données et la mise à disposition de moyens de calculs importants (la vitesse de l’apprentissage global de l’entreprise dépend de la fréquence de son cycle d’expérimentation et de synthèse de nouvelles connaissances). Comme cela est souligné par l’académie des technologies, l’ingénierie logicielle est un support fondamental à la pratique des technologies exponentielles, à cause de la nature cybernétique des systèmes intelligents… et la richesse des méta-heuristiques d’assemblage des composants élémentaires de l’IA.


Un système d’information exponentiel hérite des propriétés et de l’architecture des systèmes réactifs. La finalité d’un système réactif est d’interagir de façon continue avec son environnement. En conséquence, sa première caractéristique est l’ouverture, sa capacité à ouvrir des interface (API) sur ses frontières, de façon modulaire et recomposable. Ceci est très bien expliqué dans « Exponential Organisations » : il ne suffit pas d’être ouvert, il faut être adaptable et flexible (cf. la section précédente). L’assemblage réactif au sein de systèmes de systèmes conduit à une approche par événements (Event-Driven Architecture). Une des caractéristiques des systèmes digitaux moderne est la scalabilité dans le traitement des flux d’événement au moyen de technologies de type kafka. La scalabilité au moyen de distribution massive n’exclue pas une forme de biomimétisme en utilisant des modèles hiérarchiques d’événements pour composer des sous-systèmes par abstraction (dans le monde de l’IOT, tous les événements n’ont pas vocation à circuler librement). La réactivité des systèmes exponentiels s’implémente à travers le traitement contextuel ( « intelligent » et/ou apprenant), par exemple avec des technologies de type CEP (Complex Event Processing)


La caractéristique principale d’un système d’information exponentiel est d’être organisé pour changer de façon continue, suivant un rythme élevé. La principale différence entre l’ingénierie des systèmes d’information d’aujourd’hui et celle d’il y a 15 ans, lorsque j’étais DSI de Bouygues Telecom, est l’accélération du rythme de changement. Ce rythme est imposé à la fois par les exigences métier et par celles des technologies. C’est précisément la thèse centrale du livre “Exponential Organizations”. L’impact sur le système d’information est fondamental : comment s’organiser pour que, comme chez Google, la moitié des modules soient recompiles et réintégrés chaque mois. Une première idée simple est qu’il faut réduire la « masse » du SI pour pouvoir le faire accélérer plus facilement, pour suivre la métaphore de la loi de Newton. Cette masse est une abstraction qui recouvre la taille tout autant que la complexité. Pour changer rapidement, il faut à la fois moins de code, du code plus élégant et du code plus modulaire. Dans ce nouveau monde où le SI évolue constamment, le processus de fabrication/déploiement devient plus important que l’objet fabriqué. C’est pour cela que les approches CICD/DevOps qui s’appuient sur des « software factories » deviennent fondamentales et inévitables (comme le rapporte le livre « Accelerate »). Le système d’information n’est plus un empilement de « boites » (qui produisent des services) mais de « flux » (qui modifient des boites). L’assemblage des composants doit également présenter la même facilité de modification continue, ce qui a conduit en moins de 20 ans à passer d’outils rigides d’intégration à l’utilisation de scripts de haut niveau d’abstraction (« integration as code »). Dans un monde de changement permanent, l’assemblage de « boites noires » laisse la place à un assemblage de « boîtes blanches » dont le code est disponible, lisible et compact (haut niveau d’abstraction).


Dans un assemblage de plateformes qui évoluent et se renouvelle sans cesse, l’architecture de données est le principe fondateur stable du système d’information exponentiel. La circulation des données exige une sémantique partagée, sous la forme d’un modèle d’objet métiers, que nous appelions les objets pivots il y a vingt ans. Cela peut sembler évident, mais une stratégie d’API ouvertes de type REST (accès http à des objets métiers) exige un modèle sémantique partagé.  Ce qui change dans les systèmes modernes massivement distribués, c’est la frontière du « théorème CAP » : puisque la distribution et la résilience sont des caractéristiques intrinsèques du monde numérique, la consistance du modèle transactionnel/ACID devient une « consistance éventuelle » avec des modes opératoires qui évoluent en conséquence. Pour simplifier, on peut dire que la notion d’exactitude se transforme en « fraîcheur des données ». La consistance n’est plus une propriété globale et universelle, elle se décline à travers les processus métiers et les « customer journeys » (un sujet que je traite abondamment dans mon livre sur l’urbanisation).  Dans cet univers de données qui changent et circulent de façon permanente, les stocks de données laissent la place aux flux d’événements qui matérialisent ces changements. C’est ce qu’on appelle le « event sourcing » : une déconstruction du concept de base de données au profit du traitement direct du flux des événements de mise à jour. Ce n’est pas un pattern universel, il reste des besoins de « single source of truth » et de comportements transactionnels, mais l’approche par flux permet à la fois une très forte scalabilité et la coexistence de traitements chauds et froids.



4. Transformation des DSI vers des usines à plateformes 

Pour obtenir une adaptation permanente à son environnement, le système d’information s’appuie sur une architecture modulaire multimodale, dont différentes parties, découplées par des API, peuvent évoluer a des rythmes différents. Tout comme dans l’approche BetaCodex  des organisations adaptatives, la métaphore de l’organisme unicellulaire est pertinente car elle permet de comprendre que le changement vient (majoritairement) de l’extérieur, et que l’organisation interne modulaire doit permettre d’accommoder des vitesses différentes d’évolution. Une architecture muti-modale permet d’intégrer des parties plus anciennes et moins agiles avec une « frontière » qui est synchronisée avec les besoins de l’environnement. Dans cette vision, les API jouent le rôle de « joints de dilatation » temporels. Elles sont à la fois les pivots de la construction incrémentale et de la déconstruction (le décommissionnement des « monolithes » est facilité par un découpage modulaire de type SOA). Cette approche multimodale est récursive, elle s’applique également aux sous-systèmes ; cela implique, dans le choix de ses partenaires logiciels, de travailler avec des acteurs qui partagent cette vision de mise à disposition des capacités via des API.

Un des ennemis principaux des DSI pour construire un SI exponentiel est l’accumulation de la dette technique. La dette technique est toujours un handicap, mais son poids s’accroît au fur et à mesure que la vitesse de changement requise augmente. Toujours pour reprendre la métaphore physique (de l’énergie cinétique), plus vous allez vite, plus l’inertie (la masse) est un problème. Le nettoyage permanent de la complexité inutile devient donc une hygiène de vie obligatoire, à toutes les échelles (depuis le refactoring du code jusqu’au refactoring de l’architecture d’entreprise). Les bonnes pratiques de l’architecture d’entreprise – rechercher la modularité et le découplage – sont encore plus importantes lorsque le SI est soumis à un taux accéléré de « rafraichissement ». A l’automatisation de l’ajout (qui est l’objectif implicite du CICD) il faut ajouter l’automatisation du retrait. Cela passe par la capacité de purger les systèmes de leurs données, d’automatiser les reroutages pour faciliter les « débranchements ». Mon expérience des 20 dernières années est que les mêmes ingénieurs qui se plaignent de la difficulté à décommissionner les « legacys » créés par nos anciens passent peu de temps à contempler le moment inévitable où leur produit logiciel subira le même sort. Le nettoyage constant de la dette technique est une tâche « full stack » ; pour éviter qu’elle devienne insurmontable, il faut s’appuyer le plus possible sur l’automatisation, ce qui conduit à envisager la mise à niveau (depuis le patching pour la cybersécurité jusqu’aux updates nécessaires pour les composants logiciels de service) comme un processus continu à tous les niveaux (infrastructure, OS, middleware, composants, …). Ceci est grandement facilité par les outils logiciels modernes comme la « containarisation ».


La haute disponibilité est une caractéristique essentielle d’une plateforme digitale et d’un système d’information exponentiel.  L’absence de « down time » est une des premières attentes des clients au sujet de leurs expériences numériques. Les approches des « Géants du Web », comme Google, méritent d’être étudiées et copiées. Une partie des recommandations, comme l’importance de du découplage et de la redondance pour éviter les SPOF, est classique et fait partie des fondamentaux de la « haute disponibilité » dans tous les bons ouvrages. En revanche, les outils évoluent rapidement et ce qu’on peut obtenir aujourd’hui en utilisant massivement le monitoring et l’automatisation (cf. les préconisations de « Google Site Reliability Engineering ») est profondément plus large que ce qu’on pouvait faire il y a 10 ans. Le monitoring proactif, avec son utilisation de l’apprentissage pour faire de la maintenance prédictive, permet à la fois d’éviter des incidents et de corriger beaucoup plus vite. L’automatisation permet de réduire les erreurs manuelles qui restent associées à la majorité des incidents. Les bonnes pratiques d’aujourd’hui, en utilisant les outils modernes (dont un grand nombre sont en open source) permettent de réaliser une grande partie des ambitions de l’autonomic computing :  self-monitoring, self-provisioning, self-optimization and self-healing. Les pratiques de « chaos engineering » donnent une nouvelle dimension au DRP (disaster recovery planning) : on passe du test exceptionnel qui a lieu une fois par an à une approche multi-échelle régulière qui augmente considérablement la faculté de disposer de la redondance le moment venu (puisque comme le dit Werner Vogel depuis plus de 10 ans, « everything fails all the time»).

Dans le monde numérique, l’ingénierie des performances est une discipline essentielle car la performance est une exigence fonctionnelle des clients. Ce point est parallèle à l’exigence de haute disponibilité que nous venons de développer. Le monitoring et la prévision des performances - en particulier le capacity planning  font partie de la culture des opérations digitales. La même remarque s’applique sur le développement des outils (en particulier open-source, à la suite des développements créés par les « géants du web ») : il est beaucoup plus facile aujourd’hui de piloter (monitoring) et de prévoir. Le domaine AIOps (Artificial Intelligence for IT Operations) se développe rapidement et les méthodes d’apprentissage permettent à la fois d’améliorer la disponibilité et de garantir les performances. Le développement du Cloud, à la fois comme plateforme d’hébergement mais également comme fournisseur de service métier signifie que le suivi, l’analyse et la prévision des performances des processus métiers évoluent et augmentent en abstraction (on passe d’un monitoring technique proche des machines à un monitoring métier sur des événements liés à des services). Cela exige pour les nouveaux services de disposer d’API d’introspection, puisqu’il n’est plus forcément possible de « parler aux machines » qui hébergent ces services.

La qualité du code est une condition nécessaire qui s’obtient en développant une culture d’excellence logicielle. Transformer son SI en ExIS (Exponential Information Systems) pour supporter la transformation digitale requiert à son tour une transformation profonde de la DSI, en termes de compétences et d’attitudes. C’est en premier lieu un défi d’apprentissage permanent. Ce flux constant de nouvelles techniques et de nouveaux outils exige une culture d’expérimentation (« Learn by doing ») et une valorisation de la curiosité et de l’apprentissage. Cette curiosité doit s’appliquer à l’innovation tout comme à la résolution de problème (kaizen) et l’analyse des post-mortem. C’est ensuite une question de reconnaissance des compétences et savoir-faire techniques. Le terme anglais de « software cratftmanship » (artisanat logiciel) rend bien compte de l’importance de la pratique et de l’expérience. Les développer prend du temps et exige la reconnaissance de l’entreprise (en particulier pour ne pas perdre ses meilleurs éléments). Il s’agit d’un formidable défi collectif qui ne peut être relevé que dans une culture de partage et de réutilisation, ce qui passe également par la fierté (« pride ») du travail bien fait et du logiciel bien écrit. Même si cela dépasse le cadre de ce billet, les approches Lean et Agile que j’ai évoquées dans plusieurs billets forment un cadre pour développer cette culture d’apprentissage et d’amélioration continue.

5. Conclusion 


Pour conclure, je veux souligner une idée simple mais profonde : le système d’information exponentiel est une usine à plateformes logicielles. Il y a trois raisons essentielles. La première est que la plateforme est une « micro usine » à service, elle est par nature adaptée au changement permanent du monde numérique. La plateforme est la traduction concrète de l’idée que le flux est plus important que le stock. La plateforme permet de s’adapter à la rapidité de changement des besoins en termes de produits et services. La deuxième raison est que la plateforme permet l’assemblage et l’intégration de la valeur produit par d’autres. La plateforme est un outil pour démultiplier la capacité de production logicielle en associant d’autres acteurs externes à l’entreprise. La troisième raison est que la plateforme matérialise le concept d’une frontière ouverte du système d’information, tout en maitrisant les risques de dilution ou de perte de propriété intellectuelle. La plateforme au travers de ses API définit les « pointillés de cette frontières », ce qui est ouvert et ce qui ne l’est pas.

La transformation digitale le plus souvent ne se discute pas, elle est imposée par l’extérieur, qu’il s’agisse des clients ou des partenaires des chaînes de valeur. En revanche, la façon de se transformer, la stratégie d’exposition de service et la maîtrise des écosystèmes détermine si l’entreprise a pour vocation de délivrer son expertise en back-office d’autres acteurs qui s’approprient l’expérience client (la crainte classique de désintermédiation) ou si cette entreprise peut jouer un rôle d’orchestration de premier plan dans son propre écosystème métier.  Pour ne pas se retrouver dans un rôle de fournisseur d’API métier qui deviennent des commodités, les capacités numériques et logicielles sont déterminantes dans l’exécution de la stratégie numérique. Il est toujours possible de chercher à reconquérir des positions (comme les hôtels face à booking.com et AirBnB, ou les taxis face à Uber) mais c’est plus difficile et requiert un niveau plus élevé de maitrise des capacités numériques. 

Le « drame » de la transformation digitale, c’est que la réussite des stratégies numérique passe par la construction de capacités d’ingénierie logicielle qui exigent une remise en cause profonde du modèle d’agence de l’entreprise. Malgré toutes les professions de foi sur l’agilité, le Taylorisme domine encore la majorité des modes de pensée managériaux. Construire les plateformes logicielles de demain et rassembler les compétences nécessaires, depuis les technologies exponentielles comme l’apprentissage machine ou l’intelligence artificielle jusqu’au techniques d’intégration en passant par les compétences d’architecture et de conception système, n’est pas une tâche impossible. Mais le niveau requis de compétences ne s’obtient que par la mise en place d’un système auto-apprenant qui exige la fin de ce Taylorisme. Autrement dit, la mise en place des nouveaux modes de travail (Lean et Agile par exemple) n’est pas un accélérateur pour l’exécution d’une stratégie numérique, c’est la condition nécessaire pour co-construire (en mêlant les compétences métiers et logicielles) les capacités nécessaires pour que la stratégie puisse être implémentée (le mot anglais « capability » est encore plus précis).

Construire un système d’information exponentiel est un défi passionnant. C’est pour cela que l’exposé CSDM se termine avec la figure que je reproduis ici. Ces petites icones sont des rappels de certains principes d’ingénierie système énoncés dans cet exposé.  Une partie des défis auxquels sont confrontés les systèmes d’informations sont classiques, on les retrouve dans tous les bons livres. Une autre partie est plus nouvelle et vient de l’accélération du rythme de changement. Ce qui est passionnant, c’est que la technologie de l’ingénierie des systèmes d’information, grâce aux développements des acteurs majeurs du Web et des communautés open source, a fait d’immense progrès et que nous disposons aujourd’hui d’outils, de patterns et de techniques qui rendent ce défi des ExIS (Exponental Information Systems) à notre portée.