J’ai eu le plaisir d’intervenir la semaine dernière lors de
l’inauguration de l’IRT
SystemX. Mon keynote portait sur les défis de l’ingénierie des systèmes de
systèmes, sa vidéo est diponible ici.
Parler d’un tel sujet en vingt minutes a été l’occasion choisir les principales
idées développées dans ce blog sur les
systèmes complexes. Je me suis abondamment servi des contributions de
Nassim Taleb – par exemple dans « The
Black Swan » - et de son livre « Antifragile :
Things that Gain from Disorder » qui va être le sujet de ce billet.
Nassim Taleb est un de mes auteurs préférés, et ce livre m’a
enchanté. Il s’agit d’un véritable « manuel de vie », un livre
profond à méditer tranquillement, devant sa cheminée ou son jardin. Je vais ici
vous livrer une synthèse des idées qui sont les plus applicables à mon domaine
personnel d’intérêt et de recherche. Pour éviter une liste « à la Prévert »
qui nuirait au plaisir de la lecture, j’ai regroupé mes notes en cinq
paragraphes, autour de cinq concepts :
- Un
système est « antifragile » si son exposition aux aléas de son
environnement le renforce au lieu de le détruire ou de l’user. On reconnait
ici tout de suite la propriété des systèmes vivants/organiques par opposition aux
systèmes matériels/inertes. On est bien à l’opposé d’un système fragile qui
casse ou se détériore face à un choc. Un des corolaires fondamentaux est que l’homéostasie
(équilibre) d’un tel système se définit
dans le mouvement et le changement perpétuel : « For something organic, the only stable equilibrium (sans mouvement)
is death » (et pas vraiment pour
longtemps :)). Les livres précédents de Taleb doivent nous convaincre d’accepter
la variabilité et la nature aléatoire de notre environnement ; ce livre
nous donnes des clés pour construire des systèmes – au sens large, incluant
notre propre vie – qui bénéficie de ces aléas et de ces chocs (dans une
certaine mesure). Le concept d’ « antifragile » ne s’oppose pas
à la fragilité : « Some parts on the inside of a system may be
required to be fragile in order to make the system antifragile as a result ».
On est très proche de l’éloge de la fragilité développé
par Xavier Le Pichon.
- Il ne
faut pas essayer de contrôler / maitriser les systèmes complexes par une action
volontaire « top-down » (« Do not top-down tinker
with complex systems »). Dans la lignée de Kevin
Kelly, Taleb nous montre les désastres de l’absence d’humilité lorsqu’on
souhaite piloter de façon hiérarchique, en contrôle-commande, des grands
systèmes. L’exemple des grandes famines en Chine (30 millions de morts entre
1959 et 1961) est saisissant. Le centralisme de l’état a échoué là ou –
probablement – un contrôle distribué et organique aurait été beaucoup plus
efficace – c’est ce que l’analyse des historiens a mis à jour. A la suite d’Edward Deming (« cherish your errors »), Taleb déclare « Thank you, errors ». Les
aléas, les imprévus et les efforts d’adaptation permettent d’éduquer et de
renforcer le système. Une signature de la complexité est que « la vérité
réside dans les nuances » et que la logique (en tant que méthode rigoureuse
d’analyse et de pilotage) est vouée à l’échec face à la complexité du monde
organique. Il faut à la fois de l’humilité devant les systèmes complexes et un
respect de la nature, en tant que système qui
a fait la preuve de sa résilience « what Mother Nature does is rigorous until proven otherwise ; what
humans and science is flawed until proven otherwise ».
- Dans un
monde complexe, il faut accueillir et accepter la nature aléatoire des
événements et ne pas chercher à prévoir pour maîtriser. « Our record of understanding risks in complex systems (biology,
economics, climate) has been pitiful, marred with retrospective distortions (we
only understand the risk after the damage takes place, yet we keep making the
mistake). » Cela n’empêche pas de se préparer, mais en se
concentrant sur la réaction plutôt que sur l’illusion de la prévision (on
retrouve ici le potentiel de situation cher à François
Jullien). « The payoff, what happens to you (the benefit
or harm from it), is always the most important thing, not the event itself ».
Accepter la “non-prévisibilité” est une attitude face à l’existence : “If I could predict what my day would exactly
look like, I would feel a little bit dead ». Cette tension “preparation
versus prevision” s’exprime sous le concept d’option. L’option est le mécanisme
unitaire de la construction d’un système antifragile, c’est la capacité à jouer
sur l’asymétrie en utilisant notre rationalité pour se préserver de ce qui est
mauvais et profiter de ce qui est bon. Le
principe des options remonte à Thales
de Milet. Un point clé qui revient tout au long du livre est qu’il n’est
pas besoin de comprendre le sous-jascent pour exercer une option, ce qui
explique l’adéquation avec la complexité : « When you are fragile
you need to know a lot more than when you are antifragile. Conversely, when you think you know more than
you do, you are fragile (to error) ». Cela nous conduit à cette très belle citation de Paul Valery:
“Que de choses il faut ignorer pour agir ».
- L’attitude la plus efficace face à la
complexité est la procratination, « festina
lente » : se hâter lentement. «Procrastination turned out to be a way to let events take their courses ». Je retrouve ici des principes
lean consistant à retarder la prise
de décision « au dernier moment, en mode pull, plutôt que de la prendre trop tôt, en mode push ». L’autre principe lean est le célèbre « less is more », que l’on retrouve
plusieurs fois dans ce livre. Par exemple avec la constatation que les règles
et les
méthodes les plus simples fonctionnent souvent mieux « simpler methods for forecasting and
inference can work much, much better than complicated ones ». « A complex system, contrary to what people believe, does not require
complicated systems and regulations and intricate policies. The simpler the better”. Je retrouve
également les principes du « calm computing » dans la phrase « technology can cancel the effect of bad
technologies, by self-subtraction ». La procrastination dont il
s’agit ici est celle de la décision, pas celle de l’action. Au contraire, le
livre en entièrement tourné vers l’action, sous une forme itérative de petits
pas que ne renierait pas Eric Ries dans « The Lean
Startup ». Taleb nous raconte l’histoire de la mise au point des
avions à réacteur (« jet
engine », au chapitre 15) : « Scranton showed that we have been building and using jet engines in a
completely trial-and-error experimental manner, without anyone truly
understanding the theory ». L’innovation
est un processus antifragile, qui se produit lorsque l’action rencontre l’imprévu
et l’aléatoire. « There is something sneaky in the process of
discovery and implementation. We are managed by small (or large) accidental
changes, more accidental than we admit. We talk big but hardly have any
imagination, except for a few visionaries who seem to recognize the optionality
of things. We need some randomness to help us”.
- « The Soviet-Harvard illusion »:
méfiez vous des épiphénomènes dans les systèmes
complexes. Attention à la « narrative
fallacy » : à cette volonté de tout vouloir comprendre, en
confondant souvent cause et corrélation. Un des axiomes des systèmes complexes
est que les chaines causales sont difficiles à démêler et à interpréter. Cette
illusion – je vous laisse lire le chapitre « lecturing birds on how to fly » pour savourer le comportement « soviétique/Harvard »
- consiste à se tromper dans l’ordre des
chaines de causalités et confondre la cause et l’effet. Ce comportement
favorise le modèle, puis l’analyse sur la réalité, et conduit à inférer une
supériorité de la science théorique sur la science appliquée, de la technique
sur la pratique. Taleb se situe résolument dans l’approche inverse – que j’associe
naturellement au lean façon Toyota – qui place la pratique, l’action et la
réalité concrète à la source. Ceci conduit Taleb à postuler : « Wisdom in decision making is vastly more important – not just
practically, but philosophically – than knowledge”. “I ‘ve had a hard time conveying to intellectual the intellectual
superiority of practice”. Cette méfiance vis-à-vis des corrélations
sans signification se retrouve à la fin du livre avec une courbe passionnante
pour les amateurs de “Big Data”. Taleb illustre une loi statistique sur les
corrélations qui apparaissent naturellement lorsqu’on augmente le nombre de
variables. « If I have a set of 200 random variables,
completely unrelated to each other, then it would be near impossible not to
find a high correlation of sorts, say 30 percent, but that is entirely spurious”.
En refermant le livre, l’idée qui me vient à l’esprit est
que Nassim Taleb lui-même est antifragile : plus il rencontre d’opposition,
de personnes et comportements qui l’énervent, plus il devient intéressant. Ce
livre contient un bon nombre de portraits au vitriol et de critiques acerbes de
certaines professions. Je suis prêt à parier que certains seront agacés par de
tels propos, et par une forme de complexe de supériorité qui est à peine voilé
(d’où des phrases comme « What is
nonmesureable and nonpredicatble will remain nonmeasurable and nonpredictable,
no matter how many PhDs with Russian and Indian names you put on the job – and
no matter how much hate mail I get »). Mais les autres éprouveront un
véritable plaisir intellectuel, celui de remettre de l’ordre dans leurs
observations et de mieux comprendre le monde qui nous entoure. Le comportement
antifragile existe autour de nous. Par exemple, le mécanisme des stock-options,
bien plus que de récompenser la performance de l’entreprise (qui est plus ou
moins reflétée, avec un décalage
temporel, par le marché), est un système antifragile qui récompense la fidélité :
sur une longue période, le facteur multiplicateur des options récompense en
premier lieu la variabilité. Il est
préférable de traverser des périodes d’oscillations qu’une croissance lente et
régulière.
Pour conclure, il est facile de voir ce que j’ai pu tirer de
ce livre pour mon intervention à l’IRT sur les systèmes de systèmes :
- Il faut embrasser l’irrégularité et les aléas de
nos environnements, penser nos systèmes sous forme de processus en perpétuel
mouvement.
- Il faut accepter l’asymétrie entre la
prévision/analyse qui est soit très difficile, soit impossible, et l’action
contingente. C’est la base de l’approche Chinoise du potentiel de situation.
- Il faut conserver une bonne dose d’humilité en
matière de systèmes complexes, qu’il s’agisse de comprendre ceux qui existent
ou d’en construire de nouveaux.