Je vais commencer aujourd’hui par un résumé de ce que j’ai retenue de la lecture du livre de Mark Buchanan « The Social Atom » . Ce livre est vraiment passionnant, très bien écrit, et je le recommande aux lecteurs de ce blog, après les livres de Malcom Gladwell. Le titre du livre signifie que Mark Buchanan cherche une théorie du comportement collectif issue (en « bottom-up ») de ce que nous savons des individus.
Les thèmes clés sont donc l’émergence, les réseaux sociaux, les jeux et paradoxes collectifs … L’introduction peut avantageusement rapprochée de « Out of Control » de Kevin Kelly dont j’ai déjà parlé. Nous sommes également sur les traces de Moreno et de la sociométrie. L’atome, c’est le comportement unitaire … dans le monde de l’entreprise, ce serait le « knowledge worker ». Le parallèle avec les thèmes d’intérêt de ce blog est évident, puisque le thème sous-jascent n’est autre que la recherche d’une science du comportement collectif, qui s’appuie sur une simplification du comportement individuel mais utilise les outils de la science moderne (cf. le post précédent sur la simulation) pour étudier les interactions dans toute leur richesse et leur complexité. La thèse de Mark Buchanan est que la sociologie doit traverser la même révolution intellectuelle que la physique pour progressivement faire émerger ce concept du « social atom ». Plutôt que de continuer cette médiocre paraphrase, je vous encourage à lire le livre ! (à commencer par le premier chapitre « Think patterns, not people ».
Je vais me contenter de mettre certains points en valeur, comme chaque fois, avec ma subjectivité et mes propres limites. La liste qui suit n’est pas forcément ce que chacun retiendrait, elle est « biaisée » par les centres d’intérêt de ce blog :
Les thèmes clés sont donc l’émergence, les réseaux sociaux, les jeux et paradoxes collectifs … L’introduction peut avantageusement rapprochée de « Out of Control » de Kevin Kelly dont j’ai déjà parlé.
Je vais me contenter de mettre certains points en valeur, comme chaque fois, avec ma subjectivité et mes propres limites. La liste qui suit n’est pas forcément ce que chacun retiendrait, elle est « biaisée » par les centres d’intérêt de ce blog :
- Le premier point intéressant est le jeu de Richard Thaler, proposé en 87 aux lecteurs du Financial Times, constituant à deviner un nombre « qui doit être le plus près possible des 2/3 de la moyenne des entrées des autres joueurs ». C’est une merveilleuse illustration de la rationalité limitée. Si les joueurs sont stupides, ils répondent 50 (moyenne entre 0 et 100). S’ils pensent « à un coup », ils jouent 33. S’ils pensent beaucoup, ils répondent 0 (le seul point fixe, solution de l’équation X = 2/3 X). Le verdict : l’entrée moyenne était de 18.9 et le gagnant avait choisi 13. C’est une information extrêmement intéressante lorsqu’on simule des acteurs ou des marchés (permet de calibrer une répartition entre les « idiots » et les « génies »).
- On retrouve des anecdotes intéressantes sur les jugements instinctifs et sur les erreurs que l’on commet facilement en fonction de la façon dont la question est posée. Cela rappelle bien sur le livre « Blink » de Malcom Gladwell.
- Le livre contient de très intéressantes références sur la volatilité dans les processus stochastiques, et en particulier sur les marchés financiers. Le crash de LTCM (Long Term Capital Management) mérite d’être retenu. Les données numériques pour l’expérience archi-célèbre du bar de « El Farol » montrent également une volatilité très importante. Cette volatilité est une signature, explique Buchanan, de processus complexes avec des acteurs « intelligents » qui apprennent. On trouve en quelque sorte une « long tail » des fluctuations, à rapprocher des « power laws » qui caractérisent les réseaux sociaux. Une des contributions les plus importantes du livre est de montrer que cette distribution apparaît naturellement lorsque des mécanismes d’apprentissage sont introduits (cf. la simulation de marché de Brian Arthur) et seulement dans ce cas. Je cite : « So it seems that what rationality cannot explain [la volatilité], a mystery of half century, finds a natural explanation in adaptative behavior and self-organization ». On ne peut pas rêver de meilleure introduction à l’approche GTES !
- Cette analyse peut être affinée grâce aux travaux de Zhang et Challet sur le « minority game » (qui ressemble au jeu de Thaler). Ils ont montré que le comportement change complètement selon le nombre de joueurs (la densité par rapport à l’espace des stratégies). Avec peu de joueurs, l’apprentissage joue un rôle important (lié à l’exploration) tandis qu’avec beaucoup de joueurs, l’efficacité collective est trop grande (tout le monde se précipite sur la meilleure position du moment) pour que des protocoles stables puisse s’installer. On observe alors un comportement chaotique et une grande volatilité.
- Buchanan cite également les expériences de Bouchaud et Michard pour expliquer les « stratégies d’adoption » (cf. « The Tipping Point » de Malcom Gladwell) par des modèles issus du magnétisme (voir par exemple l'article). Ce modèle a donné d’excellents résultats pour prédire la vitesse d’adoption du téléphone mobile, les applaudissements dans une salle de concert. Une des leçons que propose Buchanan est que le penchant naturel pour l’imitation (cf. Aristote) est suffisant pour expliquer de nombreux phénomènes « apparemment complexes ». Le livre rapporte également une expérience/simulation due à Robert Axelrod (dont j’ai parlé de nombreuses fois) & Ross Hammond, qui simule la propagation d’une stratégie (de discrimination) à partir d’un modèle stochastique. Les résultats sont doublement intéressants : d’un point de vue méthodologique - une simulation simple qui permet de reproduire un comportement complexe et d’un point de vue pratique/personnel, puisque la conclusion est que le comportement discriminant est « dominant » (« in a world of bigots, only bigots survive »). Un résultat qui fait froid dans le dos et mériterai un post à lui tout seul.
- Une expérience quelque peu similaire a été menée par Bouchaud et Mezard pour comprendre la distribution des richesses (dans chaque pays, la courbe a la même forme, et suit une « power law », un fait découvert il y a longtemps par Vilfredo Pareto). Comme dans l’expérience de Axelrod et Hammond, un modèle stochastique simple permet de redécouvrir ces distributions (avec une précision remarquable).
- Le « jeu de l’Ultimatum » est également une source d’inspiration pour la simulation. Ce jeu (dans lequel on vous remet 100$, et vous devez décider combien vous voulez partager avec un étranger qui vous est désigné, sachant que si il refuse votre proposition, vous devez rendre les 100$) illustre la complexité de la psychologie humaine (on y retrouve la notion d’utilité, mais également une notion intrinsèque de « justice ») par rapport à une vision « purement rationnelle ». La surprise est qu’il existe des fondamentaux (ce jeu a été joué des milliers de fois, dans des cultures et des configurations différentes).
- Buchanan donne également des exemples numériques tirés de jeux qui illustrent « the tragedy of the commons », c’est-à-dire des situations ou un intérêt collectif s’oppose aux intérêts particuliers. On retrouve l’importance du nombre de participants (cf. mes commentaires sur l’excellent livre de Christian Morin « Les Décisions Absurdes »).
- Pour finir, les expériences de Robert Axtell sur la distribution du succès et de la taille des entreprises sont très encourageantes, de façon générale (une des conclusions de Buchanan est « at the core of the modern competitive firm we find that social cohesion created by cooperation is the main engine for success») et de façon particulière sur la pertinence de la simulation pour évaluer des phénomènes macro-économiques. Notons que le point de départ de Axtell est une constatation statistique que le nombre d’entreprise de taille S suit une « power law » de type 1/S^2, à toutes les époques et dans tous les pays ! Le premier objectif de sa simulation était de voir s’il pouvait retrouver ce résultat par simulation, ce qu’il a fait (une fois de plus, avec des résultats impressionnants qui reproduisent ce que disent les statistiques, quelque soit la configuration de départ de la simulation).
Ce livre est rafraichissant car il est rempli de faits. Il est très à la mode de construire des théories (en termes de management, d’efficacité collective, de méthodes de travail, de conduite de processus). Les lecteurs anciens savent que ce blog cherche une base, un cadre ou un outil pour évaluer ces théories. C’est avec des informations du type de celles contenues dans le livre de Buchanan qu’on peut espérer faire un travail scientifique, c’est-à-dire fondé sur la réfutabilité (cf. Popper).
Bonjour Yves,
RépondreSupprimertu m'as convaincu, je vais commander ce livre !
Excellent ton blog, j'y apprends beaucoup de choses. Merci !
Romain