1. Introduction
J’ai eu le plaisir de participer à «Complex Systems Design and Management » (CDSM 2018) en Décembre dernier et d’intervenir sur « les systèmes d’information au service de la transformation digitale ». Cet exposé s’inscrivait dans la série sur les « systèmes d’information exponentiels », une métaphore que j’emprunte librement au livre de Salim Ismail, « Exponential Organizations ». Les « organisation exponentielles » (ExO) sont les entreprises dont les organisations sont tournées vers l’absorption et la valorisation du flux continu d’opportunités apportées par le développement exponentiel des nouvelles technologies (apprentissage machine, intelligence artificielle, etc.). Ce qui caractérise une ExO, c’est sa structure en réseau autonome orientée vers l’extérieur et son rythme élevé de changement permanent (on retrouve la notion d’homéostasie digitale). De la même façon, le système d’information exponentiel se caractérise par son rythme élevé de renouvellement permanent et ses frontières multiples avec les différents écosystèmes logiciels qui portent ces progrès continus des technologies exponentielles.
La transformation digitale, tout comme la capture des opportunités technologiques telle que l’intelligence artificielle, est avant tout une stratégie métier qui doit être portée par les acteurs opérationnels de l’entreprise. Mais cette transformation requiert des capacités digitales, qui s’expriment en termes de logiciel et de systèmes d’information. La transformation digitale n’est pas une question de technologie, mais elle ne peut avoir lieu sans que les capacités technologiques soient au niveau requis par la compétition internationale. C’est ce que je résume ici en disant qu’il ne peut y avoir de succès pour une entreprise dans le monde numérique dans lequel nous vivons sans maitriser les « codes » des systèmes d’information exponentiels. Cette idée est déjà exprimée depuis 10 ans dans l’ouvrage fondamental d’Octo « Les Géants du Web », mais au fur et à mesure que le « logiciel dévore le monde », ceci devient de plus en plus fondamental. Les acteurs métiers doivent s’emparer de leur futur numérique, ils ne peuvent ni l’outsourcer – si c’est possible, c’est en général un mauvais signe - ni le confier à des départements digitaux spécialisés, mais ils doivent comprendre que le jeu numérique est dominé par les capacités. Il ne s’agit pas de bien penser, il s’agit de bien faire.
Les slides de mon intervention CSDM sont disponibles sur Slideshare . Mais mon expérience est qu’il est facile de mal interpréter des slides sans le commentaire oral. Ce billet de blog est donc un petit texte d’accompagnement des slides pour insister sur les points principaux. Il n’est pas complet car le billet serait trop long, et ce sont des sujets que j’ai abordés plusieurs fois. Le billet reprend la structure de l’exposé et organisé comme suit. La Section 2 parle de la transformation digitale, selon un ensemble d’axes : la réinvention des processus métiers, la révolution de la relation client, l’importance des chaines de valeurs étendues et des écosystèmes de partenaires, en particulier dans le monde numérique. La section 3 est consacrée aux « systèmes d’informations exponentiels », selon le sens que nous venons de définir. Nous allons caractériser ce qui les rend aptes à absorber un flux constant d’innovations technologique et à restituer cette agilité comme plateforme de transformation pour l’ensemble des métiers de l’entreprise. La dernière section s’intéresse à quelques aspects de la transformation interne que les directions des systèmes d’information (DSI) doivent entreprendre pour transformer leurs systèmes d’informations afin qu’ils deviennent la colonne vertébrale de la transformation digitale de leur entreprise.
2. Quelques enjeux de la transformation digitale
La digitalisation est au cœur des enjeux de l’industrie 4.0, elle change profondément les modes de travail ainsi que les horizons de la réinvention des processus métiers. Cette transformation – désignée également par « Digital Manufacturing » - n’est pas facile à appréhender car il s’agit d’une révolution déguisée en évolution. Il y a trois composants majeurs : la capacité des technologies digitales et exponentielles à aller encore plus loin dans l’automatisation des station de travail de l’usine (au premier coup d’œil, dans une continuité parfaite avec ce qui se passe depuis de nombreuse décennies), la capacité à construire un jumeau numérique (« digital twin ») de l’usine qui sert ensuite - grâce à la simulation, la prévision et l’optimisation - à réinventer et réagencer les processus de l’usine, et pour finir, la création d’un espace de travail actif qui agit en symbiose avec les opérateurs dans un principe d’augmentation (l’ensemble de l’environnement devient un outil intelligent, grâce au progrès de toutes les technologies : senseurs, miniaturisation des actionneurs, nouveaux matériaux, etc.). Ce qui rend cette nouvelle poussée de l’automatisation plus « révolutionnaire », c’est la capacité de l’intelligence artificielle à « absorber de la complexité ». Bien entendu, ces trois axes ne sont pas séparés, ils se complètent et s’enrichissent. L’arrivée massive de l’IOT (senseurs partout, dont la vidéo-capture et objets connectés) sert à la fois à construire cet environnement pour « humains augmentés » et à nourrir le jumeau numérique. Je vous renvoie par exemple à ce que Merck a fait en utilisant un « digital twin » pour améliorer le rendement de ces chaines de fabrication de vaccins.
L’explosion exponentielle des technologies et usage numérique transforme radicalement la relation entre les entreprises et leurs clients. Ceci est très bien expliqué dans le livre de Marco Tinelli, « Le Marketing Synchronisé », où plus récemment illustré par les démonstrations spectaculaires (même si quelque peu critiquées) de Sundar Pitchai sur Google Duplex. Le premier secret de la relation client dans le monde digital est de rendre le contrôle de son expérience au client. Cela exige de mieux le comprendre mais surtout de mieux l’écouter (d’où le slogan fondamental du Cluetrain Manifesto : « Markets are conversations »). C’est un des paradoxes du monde digital moderne, il faut écouter au lieu de deviner ce que veut le client, mais, pour lui rendre du « temps utile », il faut également optimiser les « customer journeys » grâce à la personnalisation et l’anticipation. C’est évidement ici que les techniques de big data, apprentissage et intelligence artificielle sont nécessaires. Qu’il s’agisse de l’exemple d’Amadeus cité dans le rapport de l’Académie des technologies ou celui de IGH cité dans « The Mathematical Corporation », les progrès des techniques d’apprentissage permettent de faire une segmentation beaucoup plus précise des attentes des clients. Pour profiter de ces progrès et proposer à ses clients une expérience plus pertinente et plus efficace, il faut faire des choix d’écosystèmes et de partenaires, car très peu d’entreprises peuvent se permettre d’être autonomes sur ces sujets. L’exemple spectaculaire de l’intégration de Siri (Apple) et Einstein (Salesforce) montre la puissance des écosystèmes interconnectés.
Dans un monde numérique, la supply chain est intimement mêlée avec le processus de gestion de la demande de chaque client. L’optimisation de l’approvisionnement devient de plus en plus réactive, en mélangeant des prévisions de plus en plus fines et récentes avec des flux d’événement de commandes traitées en temps quasi-réel. L’augmentation de la complexité n’est pas que temporelle, la satisfaction client passe par un volume sans cesse croissant du nombre de références et de configurations. L’image des entrepôts d’Amazon servis par des robots Kiva est une métaphore de l’importance des technologies exponentielles pour traiter la complexité grandissante de la demande. Cette intégration fonctionne également dans le sens inverse : les clients s’attendent à pouvoir suivre leurs commandes en temps réel. Cela suppose que les différentes plateformes impliquées dans la chaine d’approvisionnement fournissent en temps réel les données sous forme d’API. Cette double intégration permet d’utiliser des approches d’intelligence artificielle pour optimiser des systèmes larges, complexes et stochastiques sur une échelle très différentes de ce qui était possible jusqu’alors (les limites technologiques des précédentes décennies ont conduit à appliquer les méthodes d’optimisation sur des segments de la chaîne). L’exemple de la FAA qui a été capable d’extraire des nouvelles informations et des nouvelles approches de pilotage de l’analyse des vols sur 3 ans est emblématique. Il est possible de traiter des masses considérables de données complexes – et bruitées – pour mieux comprendre des phénomènes complexes (comme les cascades d’enchainements de retards).
La « digitalisation » des connaissances permet de réinventer les processus de développent produit et d’optimiser la recherche et développement. C’est une des idées clés du livre « Human + Machine », avec des exemples multiples. Il faut bien se dire que pour chaque exemple connu (des pointes d’athlétisme de Nike au cookies optimisés avec Tensor Flow), il en existe bien plus qui ne sont pas connus pour des raisons de confidentialité. L’efficacité de l’apprentissage automatique et des approches génératives est maintenant avérée pour optimiser les processus de recherche et développement, et nous n’en sommes qu’aux premiers pas. Cette utilisation de l’intelligence artificielle n’est pas « à la place » des experts humains, mais en appui, c’est même une nouvelle façon de formaliser et d’enrichir des connaissances métiers. L’expérience montre que les méta-datas, les observations et annotations des experts métiers sont fondamentales pour orienter les outils d’apprentissage automatique. Créer un corpus de jeux de données annotés est un acte fondateur d’une stratégie d’intelligence artificielle, et c’est une démarche métier créatrice de valeur par différenciation. On peut voit la plateforme d’entrainement d’une solution d’apprentissage automatique comme un outil collaboratif permettant de capturer, raffiner et étendre les connaissances propres aux processus métiers.
La transformation numérique est la manifestation visible de l’emprise sans cesse croissance du logiciel dans tous les métiers des entreprises. Cette omniprésence du logiciel pose deux problèmes aux entreprises : comment s’organiser pour devenir “une entreprise logicielle” capable de produire les outils numériques qui supportent sa vision stratégique ? et comment s’adapter en continu aux exigences de son environnement et en particulier de ses clients, qui ont un impact direct sur les choix technologiques. Les deux questions sont liées, car la seule façon de relever le défi de l’accélération logicielle est de profiter des écosystèmes, d’utiliser les plateformes (les siennes mais surtout celles des autres) pour obtenir un effet de levier (“produire plus en travaillant moins”). Jouer “le jeu des plateformes” signifie à la fois comprendre que c’est aujourd’hui le client qui est “l’architecte de son expérience” et qui choisit “le terrain de jeu numérique” sur lequel l’entreprise doit évoluer, et donc se mettre en capacité “d’exposer ses services”, de savoir projeter de façon modulaire et recomposable ses savoir-faire dans des écosystèmes logiciels tiers. Penser plateforme, c’est aussi savoir attirer les talents et les partenaires, à la fois avec une proposition de co-création de valeur claire, mais également en partageant les codes du monde logiciel ouvert, pour réduire la friction et les coûts de transaction.
3. “Systèmes d’information exponentiels”
Le système d’information est la colonne vertébrale des capacités digitales de l’entreprise. Le fait que le “logiciel dévore le monde” ne signifie pas que le système d’information absorbe le métier. Chaque domaine métier, chaque maillon de la chaîne de valeur, doit conduire sa propre transformation numérique, avec des contraintes, des opportunités et des caractéristiques d’environnement propres. Comme cela a été dit, cette transformation est entre les mains des acteurs métiers, et le système d’information n’est pas un outil d’uniformisation. En revanche c’est un outil d’intégration, de partage et de standardisation. C’est également une plateforme propre à l’entreprise, un outil de capitalisation technologique. Beaucoup de “capacités digitales” en termes d’intégration (API, orchestration, gestion des flux, ...) et de maîtrise (cybersécurité, haute disponibilité, gestion des identités et des rôles, ...) sont plus efficacement rendues par une plateforme partagée (le SI) que par une instanciation multiple dans des plateformes digitales par domaine métier.
Un système d’information exponentiel est construit pour faciliter
l’intégration et l’utilisation du flot continu de technologies pour
l’intelligence artificielle et l’apprentissage automatique. Je vous renvoie ici au rapport
de l’Académie des technologies et aux différents conseils que j’ai déjà évoqués précédemment. L’intelligence artificielle est une opportunité diffuse, qui touche tous
les aspects de l’entreprise. Elle se manifeste sous forme d’un grand nombre
d’outils et de techniques qui permettent de faire émerger des solutions locales
si les données et les conditions matérielles et technique de l’expérimentation
sont partout présentes. Le système d’information a donc la double fonction de
permettre la mise à disposition continue et incrémentale de données, et celle
de permettre l’assemblage agile de systèmes apprenants. Les progrès spectaculaires
de l’apprentissage profond ont donné aux processus des entreprises « des
yeux et des oreilles » … et plus généralement une capacité de perception
qui justifie que celles-ci investissent dans la collecte massive de données et
la mise à disposition de moyens de calculs importants (la vitesse de
l’apprentissage global de l’entreprise dépend de la fréquence de son cycle
d’expérimentation et de synthèse de nouvelles connaissances). Comme cela est
souligné par l’académie des technologies, l’ingénierie logicielle est un
support fondamental à la pratique des technologies exponentielles, à cause de
la nature cybernétique des systèmes intelligents… et la richesse des méta-heuristiques
d’assemblage des composants élémentaires de l’IA.
Un système
d’information exponentiel hérite des propriétés et de l’architecture des systèmes réactifs. La finalité
d’un système réactif est d’interagir de façon continue avec son environnement.
En conséquence, sa première caractéristique est l’ouverture, sa capacité à
ouvrir des interface (API) sur ses frontières, de façon modulaire et
recomposable. Ceci est très bien expliqué dans « Exponential
Organisations » : il ne suffit pas d’être ouvert, il faut
être adaptable et flexible (cf. la section précédente). L’assemblage réactif au
sein de systèmes de systèmes conduit à une approche par événements (Event-Driven
Architecture). Une des caractéristiques des systèmes digitaux
moderne est la scalabilité dans le traitement des flux d’événement au moyen de
technologies de type kafka. La
scalabilité au moyen de distribution massive n’exclue pas une forme de biomimétisme
en utilisant des modèles hiérarchiques d’événements pour composer des
sous-systèmes par abstraction (dans le monde de l’IOT, tous les événements
n’ont pas vocation à circuler librement). La réactivité des systèmes
exponentiels s’implémente à travers le traitement contextuel ( « intelligent »
et/ou apprenant), par exemple avec des technologies de type CEP (Complex Event Processing)
La caractéristique
principale d’un système d’information exponentiel est d’être organisé pour
changer de façon continue, suivant un rythme élevé. La principale différence
entre l’ingénierie des systèmes d’information d’aujourd’hui et celle d’il y a
15 ans, lorsque j’étais DSI de Bouygues Telecom, est l’accélération du rythme
de changement. Ce rythme est imposé à la fois par les exigences métier et par
celles des technologies. C’est précisément la thèse centrale du livre “Exponential
Organizations”. L’impact sur le système d’information est fondamental :
comment s’organiser pour que, comme chez Google, la moitié des modules soient
recompiles et réintégrés chaque mois. Une première idée simple est qu’il faut réduire
la « masse » du SI pour pouvoir le faire accélérer plus facilement,
pour suivre la métaphore de la loi de Newton. Cette masse est une abstraction
qui recouvre la taille tout autant que la complexité. Pour changer rapidement,
il faut à la fois moins de code, du code plus élégant et du code plus
modulaire. Dans ce nouveau monde où le SI évolue constamment, le processus de
fabrication/déploiement devient plus important que l’objet fabriqué. C’est pour
cela que les approches CICD/DevOps qui s’appuient
sur des « software
factories » deviennent fondamentales et inévitables (comme le
rapporte le livre « Accelerate »).
Le système d’information n’est plus un empilement de « boites » (qui
produisent des services) mais de « flux » (qui modifient des boites).
L’assemblage des composants doit également présenter la même facilité de
modification continue, ce qui a conduit en moins de 20 ans à passer d’outils
rigides d’intégration à l’utilisation de scripts de haut niveau d’abstraction
(« integration as code »).
Dans un monde de changement permanent, l’assemblage de « boites
noires » laisse la place à un assemblage de « boîtes blanches »
dont le code est disponible, lisible et compact (haut niveau d’abstraction).
Dans un assemblage de
plateformes qui évoluent et se renouvelle sans cesse, l’architecture de données
est le principe fondateur stable du système d’information exponentiel. La circulation
des données exige une sémantique partagée, sous la forme d’un modèle d’objet
métiers, que nous appelions les objets pivots il y a vingt ans. Cela peut
sembler évident, mais une stratégie d’API ouvertes de type REST (accès http à
des objets métiers) exige un modèle sémantique partagé. Ce qui change
dans les systèmes modernes massivement distribués, c’est la frontière du
« théorème CAP » : puisque la
distribution et la résilience sont des caractéristiques intrinsèques du monde
numérique, la consistance du modèle transactionnel/ACID devient une « consistance
éventuelle » avec des modes opératoires qui évoluent en conséquence. Pour
simplifier, on peut dire que la notion d’exactitude se transforme en
« fraîcheur des données ». La consistance n’est plus une propriété
globale et universelle, elle se décline à travers les processus métiers et les
« customer journeys » (un
sujet que je traite abondamment dans mon
livre sur l’urbanisation). Dans cet univers de données qui changent et
circulent de façon permanente, les stocks de données laissent la place aux flux
d’événements qui matérialisent ces changements. C’est ce qu’on appelle le
« event
sourcing » : une déconstruction du concept de base de données au
profit du traitement direct du flux des événements de mise à jour. Ce n’est pas
un pattern universel, il reste des besoins de « single source of truth » et de comportements transactionnels,
mais l’approche par flux permet à la fois une très forte scalabilité et la
coexistence de traitements chauds et froids.
4. Transformation des DSI vers des usines à plateformes
Pour obtenir une
adaptation permanente à son environnement, le système d’information s’appuie
sur une architecture modulaire multimodale, dont différentes parties, découplées
par des API, peuvent évoluer a des rythmes différents. Tout comme dans l’approche
BetaCodex des organisations adaptatives, la métaphore de
l’organisme unicellulaire est pertinente car elle permet de comprendre que le
changement vient (majoritairement) de l’extérieur, et que l’organisation
interne modulaire doit permettre d’accommoder des vitesses différentes
d’évolution. Une architecture muti-modale permet d’intégrer des parties plus
anciennes et moins agiles avec une « frontière » qui est synchronisée
avec les besoins de l’environnement. Dans cette vision, les API jouent le rôle
de « joints de dilatation » temporels. Elles sont à la fois les
pivots de la construction incrémentale et de la déconstruction (le
décommissionnement des « monolithes » est facilité par un découpage
modulaire de type SOA). Cette approche multimodale est récursive, elle
s’applique également aux sous-systèmes ; cela implique, dans le choix de
ses partenaires logiciels, de travailler avec des acteurs qui partagent cette
vision de mise à disposition des capacités via des API.
Un des ennemis
principaux des DSI pour construire un SI exponentiel est l’accumulation de la
dette technique. La dette
technique est toujours un handicap, mais son poids s’accroît
au fur et à mesure que la vitesse de changement requise augmente. Toujours pour
reprendre la métaphore physique (de l’énergie cinétique), plus vous allez vite,
plus l’inertie (la masse) est un problème. Le nettoyage permanent de la
complexité inutile devient donc une hygiène de vie obligatoire, à toutes les
échelles (depuis le refactoring du code jusqu’au
refactoring de l’architecture d’entreprise). Les bonnes pratiques de
l’architecture d’entreprise – rechercher la modularité et le découplage – sont
encore plus importantes lorsque le SI est soumis à un taux accéléré de
« rafraichissement ». A l’automatisation de l’ajout (qui est
l’objectif implicite du CICD) il faut ajouter l’automatisation du retrait. Cela
passe par la capacité de purger les systèmes de leurs données, d’automatiser
les reroutages pour faciliter les « débranchements ». Mon expérience
des 20 dernières années est que les mêmes ingénieurs qui se plaignent de la
difficulté à décommissionner les « legacys » créés par nos anciens
passent peu de temps à contempler le moment inévitable où leur produit logiciel
subira le même sort. Le nettoyage constant de la dette technique est une tâche
« full stack » ; pour éviter qu’elle devienne insurmontable, il
faut s’appuyer le plus possible sur l’automatisation, ce qui conduit à
envisager la mise à niveau (depuis le patching pour la cybersécurité jusqu’aux
updates nécessaires pour les composants logiciels de service) comme un
processus continu à tous les niveaux (infrastructure, OS, middleware,
composants, …). Ceci est grandement facilité par les outils logiciels modernes
comme la « containarisation ».
La haute
disponibilité est une caractéristique essentielle d’une plateforme digitale et
d’un système d’information exponentiel. L’absence de « down time »
est une des premières attentes des clients au sujet de leurs expériences
numériques. Les approches des « Géants du Web », comme Google,
méritent d’être
étudiées et copiées. Une partie des
recommandations, comme l’importance de du découplage et de la redondance pour
éviter les SPOF,
est classique et fait partie des fondamentaux de la « haute
disponibilité » dans tous les bons ouvrages. En revanche, les outils évoluent rapidement et ce qu’on peut obtenir
aujourd’hui en utilisant massivement le monitoring et l’automatisation (cf. les
préconisations de « Google Site Reliability
Engineering ») est profondément plus
large que ce qu’on pouvait faire il y a 10 ans. Le monitoring proactif, avec
son utilisation de l’apprentissage pour faire de la maintenance prédictive,
permet à la fois d’éviter des incidents et de corriger beaucoup plus vite.
L’automatisation permet de réduire les erreurs manuelles qui restent associées
à la majorité des incidents. Les bonnes pratiques d’aujourd’hui, en utilisant
les outils modernes (dont un grand nombre sont en open source) permettent de
réaliser une grande partie des ambitions de l’autonomic
computing : self-monitoring,
self-provisioning, self-optimization and self-healing. Les pratiques de
« chaos engineering »
donnent une nouvelle dimension au DRP (disaster
recovery planning) : on passe du test exceptionnel qui a lieu une fois
par an à une approche multi-échelle régulière qui augmente considérablement la
faculté de disposer de la redondance le moment venu (puisque comme le dit
Werner Vogel depuis plus de 10 ans, « everything
fails all the time»).
Dans le monde numérique, l’ingénierie des performances est une discipline
essentielle car la performance est une exigence fonctionnelle des clients. Ce point est parallèle à l’exigence de haute
disponibilité que nous venons de développer. Le monitoring et la prévision des
performances - en particulier le capacity planning font partie de la culture des
opérations digitales. La même remarque s’applique sur le développement des
outils (en particulier open-source, à la suite des développements créés par les
« géants du web ») : il est beaucoup plus facile aujourd’hui de
piloter (monitoring) et de prévoir. Le domaine AIOps (Artificial
Intelligence for IT Operations) se développe rapidement et les méthodes
d’apprentissage permettent à la fois d’améliorer la disponibilité et de
garantir les performances. Le développement du Cloud, à la fois comme
plateforme d’hébergement mais également comme fournisseur de service métier
signifie que le suivi, l’analyse et la prévision des performances des processus
métiers évoluent et augmentent en abstraction (on passe d’un monitoring
technique proche des machines à un monitoring métier sur des événements liés à
des services). Cela exige pour les nouveaux services de disposer d’API
d’introspection, puisqu’il n’est plus forcément possible de « parler aux
machines » qui hébergent ces services.
La qualité du code est une condition nécessaire qui s’obtient en
développant une culture d’excellence logicielle. Transformer son SI en ExIS (Exponential Information Systems) pour supporter la transformation
digitale requiert à son tour une transformation profonde de la DSI, en termes
de compétences et d’attitudes. C’est en premier lieu un
défi d’apprentissage permanent. Ce flux constant de nouvelles techniques
et de nouveaux outils exige une culture d’expérimentation (« Learn by doing ») et une
valorisation de la curiosité et de l’apprentissage. Cette curiosité doit
s’appliquer à l’innovation tout comme à la résolution de problème (kaizen) et
l’analyse des post-mortem. C’est ensuite une question de reconnaissance des
compétences et savoir-faire techniques. Le terme anglais de « software cratftmanship » (artisanat
logiciel) rend bien compte de l’importance de la pratique et de l’expérience.
Les développer prend du temps et exige la reconnaissance de l’entreprise (en
particulier pour ne pas perdre ses meilleurs éléments). Il s’agit d’un
formidable défi collectif qui ne peut être relevé que dans une culture de
partage et de réutilisation, ce qui passe également par la fierté (« pride ») du travail bien fait et
du logiciel bien écrit. Même si cela dépasse le cadre de ce billet, les
approches Lean et Agile que j’ai évoquées dans plusieurs billets forment un cadre pour développer cette culture d’apprentissage
et d’amélioration continue.
5. Conclusion
Pour conclure, je veux souligner une idée simple mais profonde : le système
d’information exponentiel est une usine à plateformes logicielles. Il y a trois
raisons essentielles. La première est que la plateforme est une « micro
usine » à service, elle est par nature adaptée au changement permanent du
monde numérique. La plateforme est la traduction concrète de l’idée que le flux
est plus important que le stock. La plateforme permet de s’adapter à la
rapidité de changement des besoins en termes de produits et services. La
deuxième raison est que la plateforme permet l’assemblage et l’intégration de
la valeur produit par d’autres. La plateforme est un outil pour démultiplier la
capacité de production logicielle en associant d’autres acteurs externes à l’entreprise.
La troisième raison est que la plateforme matérialise le concept d’une
frontière ouverte du système d’information, tout en maitrisant les risques de
dilution ou de perte de propriété intellectuelle. La plateforme au travers de
ses API définit les « pointillés de cette frontières », ce qui est
ouvert et ce qui ne l’est pas.
La transformation digitale le
plus souvent ne se discute pas, elle est
imposée par l’extérieur, qu’il s’agisse des clients ou des partenaires des
chaînes de valeur. En revanche, la façon de se transformer, la stratégie
d’exposition de service et la maîtrise des écosystèmes détermine si
l’entreprise a pour vocation de délivrer son expertise en back-office d’autres
acteurs qui s’approprient l’expérience client (la crainte classique de
désintermédiation) ou si cette entreprise peut jouer un rôle d’orchestration de
premier plan dans son propre écosystème métier.
Pour ne pas se retrouver dans un rôle de fournisseur d’API métier qui
deviennent des commodités, les capacités numériques et logicielles sont
déterminantes dans l’exécution de la stratégie numérique. Il est toujours
possible de chercher à reconquérir des positions (comme les hôtels face à
booking.com et AirBnB, ou les taxis face à Uber) mais c’est plus difficile et
requiert un niveau plus élevé de maitrise des capacités numériques.
Le « drame »
de la transformation digitale, c’est que la réussite des stratégies numérique
passe par la construction de capacités d’ingénierie logicielle qui exigent une
remise en cause profonde du modèle d’agence de l’entreprise. Malgré toutes les
professions de foi sur l’agilité, le Taylorisme domine encore la majorité des
modes de pensée managériaux. Construire les plateformes logicielles de demain
et rassembler les compétences nécessaires, depuis les technologies
exponentielles comme l’apprentissage machine ou l’intelligence artificielle
jusqu’au techniques d’intégration en passant par les compétences d’architecture
et de conception système, n’est pas une tâche impossible. Mais le niveau requis
de compétences ne s’obtient que par la mise en place d’un système auto-apprenant
qui exige la fin de ce Taylorisme. Autrement dit, la mise en place des nouveaux
modes de travail (Lean et Agile par exemple) n’est pas un accélérateur pour
l’exécution d’une stratégie numérique, c’est la condition nécessaire pour
co-construire (en mêlant les compétences métiers et logicielles) les capacités nécessaires pour que la
stratégie puisse être implémentée (le mot anglais « capability » est encore plus précis).
Construire un système
d’information exponentiel est un défi passionnant. C’est pour cela que l’exposé
CSDM se termine avec la figure que je reproduis ici. Ces petites icones sont
des rappels de certains principes d’ingénierie système énoncés dans cet exposé.
Une partie des défis auxquels sont confrontés les systèmes d’informations
sont classiques, on les retrouve dans tous les bons livres. Une autre partie
est plus nouvelle et vient de l’accélération du rythme de changement. Ce qui
est passionnant, c’est que la technologie de l’ingénierie des systèmes
d’information, grâce aux développements des acteurs majeurs du Web et des
communautés open source, a fait d’immense progrès et que nous disposons
aujourd’hui d’outils, de patterns et de techniques qui rendent ce défi des ExIS
(Exponental Information Systems) à
notre portée.
Peut-ètre faudrait-il faire le lien avec les travaux de Stafford Beer ?
RépondreSupprimerhttps://caminao.blog/enterprise-architecture/digital-transformation-homeostasy/