1. Introduction
Le
23 Janvier je suis intervenu à une conférence coorganisée par
l’AFIA et le MEDEF sur l’intelligence artificielle. Je me suis appuyé sur
les premiers travaux du groupe de travail
de l’Académie des technologies pour évoquer l’impact grandissant des
progrès de l’Intelligence Artificielle sur les entreprises, en particulier dans
le monde de la finance et de l’assurance. Les
slides sont disponibles en ligne, la dernière slide de conclusion contient
une « Pyramide de Maslow » qui décrit les conditions pour cultiver
les possibilités et bénéfices de l’Intelligence Artificielle dans les
entreprises. L’objectif du billet de ce jour est d’expliquer ce schéma, qui
rassemble beaucoup des
idées que je développe dans ce blog.
Le titre de ce billet est bien sûr un clin d’œil au livre de François Jullien, « Conférence sur l’efficacité ». Savoir profiter des progrès constants de l’Intelligence Artificielle relève précisément du « jardinage de l’émergence » qui est le thème du livre, une nouvelle définition de l’efficacité dans un monde complexe, non-linéaire, dans lequel les approches velléitaires et mécanistes ne fonctionnent plus. Sans rentrer dans le détail, rappelons que François Jullien oppose deux modèles de pensée : le modèle grec, dont nous sommes les héritiers, qui construit sa stratégie sur la finalité de façon déductive, sous la forme d’un plan d’action, et le modèle chinois qui définit une stratégie inductive construit un potentiel de situation et laisse les opportunités guider l’action. Le « modèle grec » cherche à imposer sa volonté au monde – et permet de façonner le monde de la sorte. C’est le modèle idéal pour construire des cathédrales et des TGVs. Il repose sur l’hypothèse que nous comprenons le monde et que nous pouvons anticiper ce qui va se passer. Le modèle et le plan y jouent un rôle fondateur. Le « modèle chinois » s’adapte continument à la réalité du monde et ne fait pas les mêmes hypothèses. C’est donc un meilleur modèle pour naviguer dans l’incertain. L’action volontaire est remplacée par une transformation continue. Il ne s’agit pas bien sûr d’opposer de façon binaire ces deux approches mais de savoir les combiner. En particulier, c’est le titre de ce billet, de savoir combiner les bénéfices de l’anticipation et de l’agilité. Dans la grande tradition de l’art militaire de Sun Tzu, c’est parce que qu’on a anticipé pour jardiner son potentiel de situation que l’on peut faire preuve d’agilité et saisir les opportunités. Je ne connais pas de meilleure façon de penser la stratégie des systèmes d’informations.
La
thèse de ce billet est simplement qu’il faut penser l’émergence de
l’Intelligence Artificielle dans nos entreprises, et donc dans nos systèmes
d’informations, dans ce double temps : le temps long de l’anticipation et
du jardinage, et le temps court de l’agilité, pour saisir des opportunités qui
sont par essence fugaces dans un monde d’hyper-compétition. Cette thèse va être
développée en quatre partie. La première porte sur cette opposition entre le
temps court et le temps long, sur les pas de François Jullien. La seconde
section s’intéresse entre la dualité entre les connaissances et la pratique, ce
qui est également essentiel pour comprendre comment profiter de l’Intelligence Artificielle.
L’usage de la technologie qui crée de la valeur sur les opportunités est un
usage émergent, tiré par la pratique et les outils. Nous allons retrouver les
problématiques d’émergence et d’adaptation continue à son environnement
(homéostasie) du
livre « Exponential Organisations » qui est un autre marqueur de ce
blog. La troisième section porte sur
l’« osmose de l’innovation »,
qui sont les conditions pour que l’entreprise puisse bénéficier du flux continu
d’innovation que des partenaires externes peuvent lui apporter. Ce sont les
conditions de l’open innovation, particulièrement importante dans les cas de
l’Intelligence Artificielle puisque les investissements massifs des GAFA et des
venture capitalists dans l’IA font que
l’entreprise doit accueillir des idées, compétences et outils externes, bien
plus qu’internes. La dernière section appliquera toutes ces idées pour
expliquer ma proposition sur ce que sont les conditions nécessaires à la bonne
valorisation de l’intelligence artificielle dans les entreprises.
2. Temps court et temps long
Un des aphorismes
préférés du monde digital et des startups est « Fail Fast », rendu célèbre par
des grandes entreprises de la Silicon
Valley. Il est souvent mal compris et utilisé pour justifier qu’il faille
abandonner rapidement si un projet ne réussit pas – et cela d’autant plus qu’on
fonctionne sur un modèle de pensée grec qui cherche à imprimer son action sur
le monde. « Fail Fast » est
un principe de systémique,
qui s’applique au « cycle
time » et pas au « lead time ». Autrement
dit, l’aphorisme est à comprendre dans un monde d’itérations continues, et il
signifie qu’il faut savoir échouer le plus rapidement possible, parce qu’il
faut itérer plusieurs fois pour réussir. Plus ce qu’on cherche à faire est
ambitieux – et dynamique – plus il est essentiel de raccourcir le temps des
itérations. C’est très précisément le principe fondateur du Lean
Startup.
Il est par ailleurs
clair que temps court et temps long ne s’opposent pas. Le temps long est celui
de la préparation, le temps court est celui de l’action. C’est une évidence
depuis des siècles pour les militaires ou les sportifs de haut niveau – en
particulier les sportifs de l’extrême comme les alpinistes. Le fait que la
prévision devienne de plus en plus difficile dans un monde complexe ne signifie
pas qu’il ne faut pas se préparer. Je vous renvoie ici à Nassim
Taleb, qui s’inscrit précisément dans un mode « chinois » de
préparation du potentiel de situation « antifragile », capable de
profiter des opportunités et de s’enrichir des aléas. Taleb remet à l’honneur
les exercices, la pratique des « war
games », des « katas »
du monde lean, pour construire ce
potentiel. Dans le monde du système d’information, le temps long est celui de
la construction du potentiel (modèle, données, API, etc.) tandis que le temps
court est celui du projet agile qui rencontre le besoin de l’utilisateur.
Le temps long est
nécessaire pour développer les capacités d’innovation qui s’expriment dans le
temps court. Le parallèle entre l’innovation et les métaphores agricoles chères
à François Jullien pour expliquer le modèle chinois est frappant. Une partie du travail est visible (lorsque la
plante pousse) mais une partie ne l’est pas (lorsqu’on prépare le sol). Les
« slow
hunchs » chers à Steven Johnson sont semblables à la germination des
graines. Je vous revoie également au livre « Lean Enterprise – How High
Performance Organizations Innovate at Scale » que j’ai commenté dans
un billet précédent.
L’illustration
suivante représente les différents cycles de temps qui participent à la
démarche lean
du Toyota Way. Le temps T0 est le
temps court de la satisfaction client. C’est le temps du processus, mesuré par
le takt time. Le temps T1 est celui
du cycle de l’amélioration continu, celui du kaizen. C’est déjà un temps plus
long et plus complexe, puisque l’amélioration continue est un processus
émergent. Le temps T2 est celui de la construction des compétences, le temps
long du potentiel de situation. Comme nous le rappelle Michael Ballé, le kaizen
est un outil de résolution de problème, dont l’objectif final est de développer
les compétences, à la fois dans le domaine systémique du produit ou service que
l’on construit et dans le domaine de la collaboration d’équipe. C’est le
« secret génial du lean » : il n’y a pas de meilleure façon de
« casser les silos » et d’apprendre la collaboration à une équipe plurifonctionnelle
que de résoudre ensemble des problèmes clients – ce que mon expérience de
construction de set-top box à Bouygues Telecom confirme merveilleusement. La
biologie et la science des systèmes complexe nous confirment les intuitions du lean :
- Pour que les organismes survivent ils doivent être adaptables, et cela passe par la minimisation du temps de réponse (temps de cycle T0)
- Pour être agiles et rapides, il faut apprendre (temps T2) par la pratique (temps T1)
3. Technologie et Outils
Une des clés
essentielles pour comprendre le développement des technologies est la
codépendance entre l’outil et l’usage.
L’usage est guidé et façonné par l’outil, mais l’outil évolue et se
transforme en fonction de l’usage – il n’y a pas d’outil sans usage. Dans
l’apprentissage des connaissances, l’outil et la pratique jouent un rôle
fondamental. C’est un des thèmes fondateurs de l’Académie des technologies. Ces
idées sont par exemple illustrées
dans le rapport de 2015 sur le Big Data. Le rôle essentiel des outils est
particulièrement important dans le domaine de la transformation numérique. La
codépendance est quasi paradoxale : les outils sont au service de la
transformation – et leur mise à disposition n’a pas d’efficacité sans une
ambition et une histoire partagée … mais la transformation nécessite les bons
outils – en particulier la simplicité d’utilisation – et la capacité laissée à
tous de se les approprier. Il suffit d’ajouter peu de contraintes pour
transformer un « best-seller du travail collaboratif » en plateforme
d’entreprise apathique.
De la même façon, la
construction des « Exponential
Information Systems », les systèmes d’informations qui utilisent et
profitent de la révolution exponentielle des technologies numériques, passe par
la pratique et expérimentation continue
des meilleurs outils. C’est une des
principales limitations des entreprises traditionnelles face aux entreprises
disruptives, qu’il s’agisse de startups ou d’entreprises qui viennent du monde
du logiciel. « Software is eating
the world » … et il s’agit de prendre les bons couverts. Ne pas
utiliser les mêmes piles logicielles, les mêmes librairies, les mêmes outils open-source que les concurrents les plus
agiles revient à se tirer une balle dans le pied. Et il ne s’agit pas seulement
d’une vision mécaniste de l’efficacité (temps T0 : l’outil permet d’aller
plus vite) mais bien de la capacité à apprendre plus vite comment travailler
autrement (temps T1) pour développer des nouvelles compétences sur le temps T2.
Les outils modernes pour construire des logiciels ne sont pas réservés à une
nouvelle génération d’informaticien, ils sont ce qui forme une nouvelle génération
de développeurs.
Je
vous recommande très chaleureusement la lecture de l’article « ING’s
agile transformation » de McKinsey avec l’interview de Peter Jacobs et
Bart Schatmann. Non seulement c’est un très bon article sur l’agilité – « It’s about minimizing handovers and
bureaucracy, and empowering people », avec de très bonnes explications
sur l’importance des « squads »
et du travail en équipe cross-fonctionnelle – « Spotify was an inspiration on how to get people to collaborate »,
mais il contient également une vision sur l’adaptation continue de l’entreprise
– et son système d’information - grâce à une approche DevOps
– « The integration of product
development and IT operations has enabled use to develop innovative new product
features ». Le déploiment de DevOps illustre parfaitement le propos
précédent : l’enjeu n’est pas simplement de travailler plus vite, c’est de
travailler autrement, pour à la fin travailler beaucoup mieux … et beaucoup
plus vite. Une fois de plus, les outils
jouent un rôle fondateur, ils définissent le
potentiel de situation de l’équipe.
Une fois de plus,
j’emprunte dans ce billet beaucoup au livre « Exponential
Organizations » de Salim Ismail, Michael Malone et Yuri Van Geest. Ce
livre donne un certain nombre de clés pour comprendre ce qui est nécessaire à
l’adaptation continue des entreprises au changement exponentiel de leur
environnement. Je voudrai souligner ici quatre points :
- Le monde des Exponential Organizations est un monde ouvert dans lequel les entreprises doivent absorber le plus de valeur possible de l’extérieur, en particulier sous la forme d’open innovation qui sera le sujet de la section suivante.
- Le changement est « distribué » aux frontières (Interfaces) – on retrouve ici la métaphore biologique du BetaCodex, sur laquelle je reviens dans la section suivante. La vitesse de changement impose que celui-ci ait lieu de l’extérieur (la frontière) vers l’intérieur. L’entreprise s’adapte au changement de son environnement (par exemple ses clients) au lieu de décliner une stratégie qui vient du centre décisionnel. C’est le principe de l’homéostasie digitale dans le contexte de la transformation numérique.
- Le changement commence par la pratique (Experimentation). La supériorité du « learn by doing » est un symptôme de la complexité de l’environnement. Cette complexité exige une adaptation, qui se fait implicitement dans l’apprentissage par expérimentation pratique, parce que la pratique est plus facilement intégrée dans l’environnement réel.
- Comme dans tout système complexe, le changement rapide exige une finalité claire (Purpose). Pour citer Isaac Getz, l’autonomie sans finalité commune produit le chaos. Dans un monde sans planification, c’est la finalité qui guide la construction du potentiel de situation, de façon émergente.
4. Innovation et Osmose
Le
besoin d’ “open innovation” – aller trouver
les innovations à l’extérieur de l’entreprise, les idées, les compétences et
les talents
– est une des conséquence de cet environnement complexe en perpétuelle
évolution. Je n’y reviens pas, c’est une des idées clés de « Exponential Organizations » et de ce
blog. La stratégie de l’entreprise n’est pas une stratégie d’investisseur
(sauf s’il s’agit d’un fond d’investissement ou de capital risque) : pour créer de la valeur propre, il faut que
ce qui est repéré à l’extérieur puisse être « intégré » dans l’entreprise
– sous des formes multiples. La métaphore biologique qui inspire cette section
est celle d’une cellule qui cherche à profiter de ressources disponibles dans
son environnement. Si l’acteur innovant est autonome – par exemple une startup –
et n’a pas vraiment besoin des ressources de l’entreprise, l’expérience montre
qu’il s’agit plus d’une démarche d’investissement ou d’un partenariat de
distribution que la co-création de valeur à laquelle aspire la démarche d’open
innovation.
Cette
problématique de l’intégration est d’autant plus importante que l’approche est
souvent vue comme un palliatif pour corriger les cycles trop lents d’une
(grande) entreprise. C’est la métaphore souvent entendue du « porte-avion
et des vedettes » : L’organisme lent et gros s’associe avec des plus
petits et plus rapides qui sont mieux à même d’explorer et détecter les
nouvelles possibilités. Cette métaphore est valide pour ce qui concerne l’ambition,
l’association avec des petites structures augmente « la surface de contact »
avec les marchés et avec les opportunités technologiques. Elle passe sous
silence en revanche les conditions de contact et de collaboration entre le
porte-avion et les petits bateaux. Pour que les échanges fonctionnent bien –
cela va de partager le même langage, pouvoir identifier les mêmes opportunités
au partage de données et de services – il doit exister une certaine homogénéité
entre les différents acteurs, à la fois en termes de culture et de biorythme.
La métaphore de l’osmose exprime cette
condition de l’open innovation : la « pression innovante »
doit être équilibrée des deux côtés de la « membrane » (dedans et
dehors de l’entreprise) pour que les échanges fonctionnent et que la cocréation
de valeur puisse se produire. C’est ce
que j’ai essayé d’illustrer dans le schéma ci-dessous. Pour que l’association avec
un petit acteur innovant fonctionne, l’entreprise doit adapter sa culture (cf. « Exponential Organizations ») – pour
pouvoir se synchroniser et reconnaitre de façon commune des opportunités -, sa
technologie – pour permettre les échanges de données et de services – et son « biorythme »
- l’échelle de temps de ses décisions et actions. Dans le domaine de l’échange
de données, tout le monde ne parle plus que d’API
(Application Programming Interfaces), à
juste titre, mais cela ne suffit pas. Pour que cette collaboration logicielle
se développe, il faut des API, une pratique logicielle commune et une vision
partagée de l’ALP (Application
Lifecycle Management) pour que les biorythmes s’ajustent de façon durable –
par exemple sur ce que chacun attend de l’autre en matière de réactivité. On
retrouve ici notre dualité temps long/ temps court (selon la citation de Louis
Pasteur, « le hasard ne sourit qu’aux
esprits bien préparés ») : le
temps d’association et de cocréation de valeur avec la startup doit être un
temps court, mais le temps d’équilibrage des pressions (construire la bonne
culture, les bonnes API et les bonnes pratiques) est un temps long, celui de la
préparation.
5. Intelligence Artificielle et Emergence
Je peux maintenant revenir au sujet de mon
intervention lors de la matinée du MEDEF et de l’AFIA, lorsque je j’ai cherché
à partager mes convictions sur les conditions nécessaires pour profiter de
cette « révolution exponentielle » de l’apprentissage et de l’intelligence
artificielle. Ces convictions sont le fruit de mon expérience, renforcée par ma
visite à la Singularity
University en Septembre. Pour résumer, il me semble que ces
conditions sont au nombre de quatre : disposer de données, pratiquer les
outils logiciels modernes, être organisés en « squads » cross-fonctionnels et promouvoir une culture d’entreprise
favorable à l’autonomie et l’expérimentation. Sans rentrer dans le détail – j’y
reviendrai une fois que le rapport de l’Académie des technologies sera publié –
voici une brève explication sur chacun des 4 points :
- Il y a un consensus total sur le fait qu’il faut des données pour développer des « solutions intelligentes ». C’est vrai de façon générale, et encore plus lorsqu’on parle de « deep learning ». Tous les rapports sur l’IA – comme l’excellent rapport de France IA - convergent sur ce point, tout comme les différents experts que nous avons rencontrés à l’Académie des technologies. Pour une entreprise, la collecte et préparation des données relève du temps long : il s’agit de construire des « training sets » pour les algorithmes apprenants de demain. Sur ce thème, je vous recommande la lecture savoureuse de l’article de Martin Goodson.
- L’importance de la « culture logicielle » et de l’environnement de travail est la conséquence logique de la seconde section de ce billet. C’est particulièrement vrai pour le domaine de l’IA : on trouve quasiment tout ce qu’on veut dans le monde open-source, mais il faut avoir la pratique de l’intégration et l’assemblage.
- Le travail en équipe cross-fonctionnelle est essentiel car il n’y a pas de recette pour diagnostique à l’avance la création de valeur. L’apport des algorithmes « intelligents » est lui-même un phénomène complexe, difficile à prévoir. La pratique est pleine de surprises : des déceptions et des bonnes surprises. Le mode agile est particulièrement indiqué pour développer ce type d’opportunités.
- La complexité et l’incertitude exigent également de laisser une véritable autonomie aux équipes agile. La découverte de l’innovation nécessite une vraie capacité d’expérimentation. Par ailleurs, la révolution de l’IA est pervasive : à coté de quelques gros sujets tels que la voiture autonome ou l’assistant personnel sur le téléphone, il s’agit d’une multitude d’opportunités pour l’ensemble des tâches de l’entreprise. Cette dispersion des opportunités exige une distribution du contrôle, selon les principes des « exponential organizations ».
Pour conclure, je peux maintenant inclure l’illustration
que j’ai présentée le 23 Janvier. Il s’agit d’une pyramide de conditions pour
que les entreprises puissent bénéficier des progrès constants (et surtout ceux
à venir) de l’Intelligence Artificielle (au sens large). Comme dans une
pyramide de Maslow, chaque condition est un prérequis pour celle qui est
au-dessus. Ce schéma est clairement abstrait, voire sibyllin, et je n’avais pas
le temps de l’expliquer durant un exposé aussi court. En revanche, le lecteur
attentif devrait reconnaitre l’ensemble des arguments qui ont été développés
dans ce billet.