Le billet d’aujourd’hui porte sur deux livres remarquables lus pendant l’été, dont on peut tirer beaucoup d’enseignements. Je vais, comme à mon habitude, résumer quelques idées saillantes qui résonnent avec le thème de se blog. Le premier livre est le « deuxième volume » du livre de Christian Morel « Les décisions absurdes » que j’ai cité abondamment dans ce blog et dans mes propres livres. Le sous-titre de « Les décisions absurdes II » est « comment les éviter ? » : Au lieu de faire l’autopsie de situations absurdes et de comprendre comment on en est arrivé là (l’objectif du premier volume), il s’agit ici de comprendre les bonnes pratiques qui permettent d’éviter ces décisions absurdes pour augmenter la fiabilité de l’organisation. Ce livre est un concentré de 10 ans de travaux auprès des métiers et des activités qui ont développé une culture et des méthodes de « haute fiabilité » (en anglais : HRO, pour High Reliability Organisations). La meilleure publicité pour ce livre consiste à lire ce qui s'est passé lors du crash du vol AF 447 : Christian Morel et Daniel Kahneman donnent des clés pour comprendre cette situation tragique. Comme le livre précédent, ce livre est un mélange de cas d’écoles détaillés et passionnants, et de conseils qui me semblent pertinents pour le domaine de l’organisation d’entreprise. Voici donc un petit résumé de certaines idées, pour vous donner envie de lire ce livre :
- Un des thèmes les plus développé – un chapitre entier - est l’importance de ne pas punir les erreurs pour fiabiliser le fonctionnement de l’organisation. Il ne s’agit pas ici d’erreurs volontaires, mais bien de dysfonctionnements des processus et procédures. Christian Morel propose des exemples spectaculaires venant de l’aviation, de l’armée américaine qui démontrent l’importance de la culture de transparence (on retrouve ici l’importance de la « brutal honnesty to facts » de Jim Collins). Autrement dit, pour augmenter la fiabilité, il faut absolument encourager la remonté des informations. L’annexe 13 de la convention de l’Organisation de l’aviation civile internationale déclare « Le système volontaire de comptes-rendus d’incidents sera non punitif et assurera la protection des sources d’information ». Christian Morel raconte comment l’armée américaine est aller s’inspirer d’industries telles que le nucléaire ou l’aviation pour changer sa culture et pratiquer cette transparence des erreurs.
- Un autre principe clé qui ne devrait pas nous surprendre et qui fait écho à la sociocratie est l’importance de faire appel à l’intelligence de tous, en dehors de toute forme de hiérarchie, pour surmonter les incidents. C’est un point doublement important. Premièrement, les organisations fiables ne sont pas celles qui n’ont pas d’incidents, mais celles qui d’une part les traitent efficacement et, d’autre part, apprennent à les éviter. Deuxièmement, le poids des structures et habitudes hiérarchiques est un véritable handicap qui paralyse la fiabilisation. Tout cela peut sembler d’une grande banalité, mais l’intérêt du livre de Christian Morel est de l’illustrer par des cas réels, spectaculaires et bien analysés (parce que spectaculairement importants, comme la conduite d’une centrale nucléaire, le pilotage d’un avion ou la conduite d’une intervention militaire).
- Cet appel à l’intelligence collective est assorti d’une mise-en-garde sévère contre le « group think », le biais inverse qui pousse un groupe à ne pas confronter les opinions mais faire émerger un « faux consensus », biaisé par des positions d’influence, la volonté de s’intégrer et d’être accepté, et des a priori sur la pertinence des opinions de chacun. Parmi les domaines dont Christian Morel tire ses enseignements, il y a la « haute montagne », qui fournit des exemples saisissants. On retrouve donc des thèmes développés dans le premier volume, tel que l’importance de limiter la taille des groupes (ce qui fait une source de plus pour abonder à la réduction du nombre de participants dans une réunion « La taille du groupe inhibe la parole, et les silences sont interprétés comme un approbation du choix dangereux »). Je vous recommande donc en particulier le chapitre 6 qui est consacré à ces biais cognitifs (tels que l’effet de polarisation, le paradigme de Asch ou le biais de confirmation) et qui fait un lien naturel avec le livre de Kahneman. Pour ceux qui ne sont pas familier avec ces biais, je vous recommande l’exposé de Ludovic Cinquin à USI 2010. La section qui traite des effets de nombre reprend donc des thèmes chers à ce blog « Plus le nombre de participants est élevé, plus la délibération devient difficile ; au-delà d’une certaine quantité, elle disparait tout à fait ». Cela conduit au principe de la « hiérarchie restreinte impliquée », (inspiré du « mission command » militaire), qui me semble un paradigme de choix pour les organisations du 21e siècle (moins de chefs, plus de collégialité, et une implication « sur le terrain, à la Toyota » de tous).
- Il est difficile de résumer tout l’intérêt du croisement entre les exemples civils et militaires, mais je retiens cette belle citation du général Desportes « C’est la centralisation qui est le plus souvent en cause avec, en aval, des difficultés d’ajustement autonome des entités en prise avec l’événement ; la centralisation est simplement incompatible avec la nature intrinsèquement complexe de la guerre ». On retrouve ici la thèse de l’entreprise qui passe du « control & command » au « recognition & response » face à la complexité de son environnement.
- Même si ce livre ne parle pas de « lean management » (la seule référence p. 240 est un contresens), il fait référence à Toyota et à l’importance du management visuel. On y retrouve l’importance de la formation systémique des opérateurs terrains, et Christian Morel nous explique pourquoi les Japonais ont inventé le management visuel, parce que leur culture est rebelle à l’abstraction. Il y a quelques pages fort intéressantes sur la fiabilisation de la communication (dont le management visuel est un élément) qui insiste sur l’importance de la désambiguation et la redondance tout en préservant la parcimonie. Lire par exemple la conclusion du livre : « Les communications sont sécurisées par des répétitions, standardisations, confirmations et explications verbales ainsi que par des éléments visuels ». Ces sujets de communications s’installent naturellement dans les interstices des organisations, un sujet auquel il faut apporter « une attention toute particulière ».
- Une des contributions originales qui va servir de pivot à ce billet est l’efficacité des règles simples face à une situation complexe. Christian Morel donne l’exemple de la prévention des risques d’avalanche en Suisse. A partir d’un travail conséquent sur les statistiques d’accidents, des guides ont proposé puis accepté une check-list simple. Le paradoxe que Christian Morel explique en détail est qu’une liste simple et statique apporte une amélioration significative de la fiabilité alors qu’il s’agit de situations complexes, d’une très grande variété, et qu’on s’adresse à des experts confirmés. Les résultats apportent un verdict spectaculaire : la discipline simple augmente de façon très significative l’efficacité des experts.
Le deuxième livre est très différent (plus dense) puisqu’il
s’agit de « Thinking,
Fast and Slow » de Daniel Kahneman.
Kahneman est une référence incontestée en psychologie cognitive de façon
générale et sur l’analyse des décisions en particulier. L’influence qu’il a eu
(avec Amos Tvesky) sur le « behavioral
economics » lui a valu le prix Nobel d’économie. Ce livre est
particulièrement intéressant parce qu’il est conçu comme un essai, un bilan de
30 ans de recherche. C’est à la fois une somme/une référence, mais aussi un
livre de vulgarisation, très agréable à lire. Il s’inscrit pour moi dans une
longue série de lectures d’ouvrages similaires, tels que « Predictably Irrational » de Dan Ariely et « Nudge » de
Richard Thaler et Cass Sunstein, mais d’une certaine façon il résume les
autres. C’est le prolongement érudit d’un de mes livres préférés :
« Blink » de Malcom
Gladwell. C’est aussi un complément aux livres de Daniel Goleman (« Social
Intelligence » et « Emotional
Intelligence ») qui permettent également de
mieux comprendre nos comportements et décisions.
- Le livre commence avec une description de notre cerveau (de notre façon de pensée) en deux sous-systèmes (que Kahneman appelle Système 1 et Système 2 pour éviter des raccourcis et des assimilations discutables - cf. le débat sur la localisation « cerveau droit »/ « cerveau gauche »). Le premier système est celui de la pensée réflexe, rapide, instinctive (cf. Blink). Le second système est celui de la pensée construite, réflexive, lente mais profonde. Je ne vais pas essayer ici de résumer un livre de plus de 400 pages, il fourmille d’informations intéressantes (toujours factuelles, avec des expérimentations et des références scientifiques, ce qui rend ce livre formidablement utile). Par exemple, on y apprend à quel point nous avons besoin de glucose pour réfléchir. Manquer de sucre nous rend irritable, beaucoup plus sévère dans nos jugements (les statistiques sur les notes des enseignants sont édifiantes) mais aussi et tout simplement moins performant. Voila de quoi enlever toute culpabilité à ceux, dont je suis, qui vont consommer un petit « réconfort » sucré pour stimuler leur réflexion. On y redécouvre également l’effort que nous demande le « task switching » (une raison de plus de faire une chose et à la fois et de le faire bien.
- Certaines expériences soulignent l’importance de la motivation, ce qui fait un lien direct avec Daniel Pink (et son dernier livre « Drive »), dans la performance de nos taches cognitives. Kahneman démontre que nous tombons d’autant plus facilement dans les pièges (lorsque nous laissons le Système 1 évaluer alors qu’il faudrait avoir recours au Système 2) que nous manquons de motivation. Cette paresse est naturelle puisque « penser de façon profonde » est réellement fatiguant (cf. le paragraphe précédent).
- Une grande partie du livre est consacrée à ces pièges, à ces biais, qui font que nous raisonnons souvent de façon « bizarre » (on peut débattre sans fin sur le coté « irrationnel », un mot qu’utilise Ariely mais que Kahnman récuse, à mon humble avis à juste titre). Le livre expose et explique les biais d’ancrage, de disponibilité (availability), de « framing ». Le biais de disponibilité est résumé par l’acronyme WYSIATI (what you see is all there is) : nous raisonnons avec les faits et éléments qui sont sont facilement accessibles (« sous les yeux »). Il vaut mieux découvrir ces concepts par des exemples qu’essayer de les résumer. Le « framing » est intéressant puisqu’il consiste à influencer le contexte associé à une décision. Pour de nombreuses décisions, le choix diffère selon que l’on se place d’un point de vue local ou global. Le « framing » consiste à influencer le décideur en le forçant à se placer dans un contexte ou un autre. Il y a de très beaux exemples dans le livre, qui seraient certainement utiles à quiconque essaye de manipuler un sondage. L’exemple du « Asian Disease Problem » est à méditer car il montre que tous, y compris les experts, les mathématiciens et les professionnels, sommes soumis à ces même biais.
- Une des grandes contributions de Kahneman, qui tient logiquement une part importante dans le livre, est le « Prospect Theory » qui remplace la théorie classique de l’utilité en prenant en compte deux choses : la relativité par rapport à une situation initiale (c’est le changement que nous évaluons, plus que la situation finale) et la dissymétrie entre perte et gains. La théorie proposée par Kahneman permet d’expliquer un certain nombre de paradoxes qui se posent lorsqu’on applique la théorie de l’utilité. Cette théorie élégante (qui s’exprime par une jolie courbe , semblable à une courbe d’utilité) permet de prendre en compte un certain nombre de comportement clés : le « loss avertion » qui fait que nous surévaluons ce que nous possédons, le « sunk-cost fallacy » qui fait qu’une fois une position ou un bien acquis, nous oublions ou sous-évaluons les efforts ou les coûts qui ont été nécessaires pour l’acquérir. Ces considérations ne sont pas théoriques, c’est bien de psychologie expérimentale dont il s’agit, avec des applications directes pour le Marketing (dans sa façon de proposer des services ou des offres).
- Parmi les biais qui sont très intéressants du point de vue du manager, Kahneman parle de notre difficulté à arrêter des projets. Il s’appuie sur une expérience personnelle (« This embarassing episode remains one of the most instructive experiences of my professional life … I was slower to accept the third lesson : the folly we displayed that day in failing to abandon the project. Facing a choice, we gave up rationality rather than give up the enterprise ». Cela fait echo à ce que Christian Morel appelle la « destinationite » (p. 231) : une tendance marquée des pilotes à poursuivre leur atterrissage une fois la manœuvre commencée, au lieu de remettre en cause l’objectif face aux aléas. Cela conduit ensuite Kahneman à parler de « planning fallacy », ou l’on retrouve des constatations connues sur l’optimisme des plannings et budgets prévisionnels (cf. « la loi du facteur pi »). Kahneman cite souvent Nassim Taleb, et fait référence à la « narrative fallacy », un autre biais de nos esprits qui sont facilement « fooled by randomness », pour reprendre le titre d’un autre de mes livres préférés.
- Pour finir, et cela fait le lien avec le livre précédent et le titre du billet, Kahneman nous parle des travaux de Paul Meehl et de la confrontation entre algorithmes (formules) et intuition. La question posée est « face à une situation complexe, ne peut-on que se fier au jugement de l’expert ou est-il possible de s’appuyer sur des règles simples ? ». Notons tout de suite qu’il s’agit de situations complexes mais répétitives, ce qui permet d’utiliser des traitements statistiques. Les exemples étudiés par Meehl viennent du monde médical (prédire un diagnostic) ou de l’enseignement (évaluer un élève) et montrent qu’une formule simple (peu de critères), établie par une approche statistique, est souvent plus précise que l’opinion d’un expert, précisément à cause de l’ensemble des biais auxquels nous sommes tous soumis. Kahneman cite l’exemple de la formule de Ashenfelter qui détermine avec une grande fiabilité (relative) la qualité future des millésimes en fonctions de quelques caractéristiques de l’année. Plus sérieux, l’exemple du test APGAR qui est pratiqué dans toutes les maternités aux US.
La lecture de ce livre m’a véritablement passionné. Cela ne
veut pas dire que je n’y trouve pas des limites : la puissance de
conviction et l’enthousiasme de Kahneman le pousse certaines fois à des
raccourcis qui ne sont pas forcément convaincants (en particulier son analyse « historique »
du 20e siècle, mais même certains de ses raisonnements logiques sur
le « preference reversal »
ou bien la forme asymptotique de la courbe qui décrit sa « Prospect theory »). Il est
extrêmement critique vis-à-vis de « In
Search of Excellence » de Peters & Waterman, j’y reviendrai dans
un prochain billet lorsque je ferai un compte-rendu de « Les Organisations– Etats des savoirs ».
Pour conclure, je voudrais souligner le point commun à ces
deux livres, qui fait également l’objet de l’article « Simple rules for a complex world »
de D. Skull et K. Eisenhardt dans le numéro de HBR de Septembre 2012 (voir le résumé vidéo). L’encadré « The
Science » exprime l’efficacité de
« règles simples » face à des situations complexes. Les règles
simples sont plus efficaces car elles ont plus de chance d’être implémentées
(logique et facile à comprendre), mais aussi parce qu’elles sont plus
robustes : le filtre de la simplicité retient des principes qui sont plus
résilients et élimine des « fausses optimisations » fragiles (c’est
moins facile à comprendre, c’est pourtant ce que j’observe dans mes propres
expériences d’apprentissage sur les systèmes complexes avec GTES). Autrement
dit, nous sommes sur le point de voir émerger une rationalisation scientifique
du bon vieux principe KISS.
Qu’il s’agisse d’architecture ou de système de management pour une situation
complexe, la simplicité est une vertu : elle est plus résiliente, elle est
plus facile à adapter, et elle est surtout plus facile à transmettre, à
expliquer et à implémenter.