samedi, novembre 30, 2013

Sérendipité, Plannification et Abstraction


Après le billet précédent qui était une synthèse, je vais aujourd’hui me livrer à l’exercice inverse, de partager quelques réflexions plus personnelles, qui touchent à l’organisation, aux réunions et à la communication nécessaire à la prise de décision.

1. Les reunions et la sérendipité organisée


On constate dans la plupart des réunions, dans la plupart des entreprises, que les ordres du jour ne sont pas toujours respectés, et que les prises de décisions ne sont pas aussi rationnelles que ce que l’on pourrait penser. On aura reconnu ici les prémices du « Garbage Can Decision Model », je vous renvoie à l’interview de James Olsen. Le terme de « Garbage Can » (poubelle) pousse beaucoup de personnes à voir dans ce modèle une critique très négative. Si on lit l’article originel et son modèle computationnel (en FORTRAN), on voit qu’il s’agit plutôt du fait que la planification se heurte à un niveau de complexité trop élevé et qu’elle est remplacée par l’opportunisme, et une certaine dose d’aléatoire dans le processus de décision. Le mécanisme du « Garbage Can Decision Model » est un mécanisme émergent, avant que ce mot ne devienne à la mode dans les systèmes complexes (l’article date de 1972).

On pourrait dire, en étant plus positif, que les occasions de décision émergent par sérendipité  : le fait que les bons acteurs se retrouvent au bon moment, dans le bon contexte.  La structure des comités réguliers et programmés joue alors un rôle particulier : celui d’organiser la sérendipité. Ce n’est pas l’agenda de la réunion qui compte, c’est le fait de donner à un certain groupe l’occasion de se rencontrer. Dans un mode stable et organisé, une réunion sans agenda est interprétée comme un défaut d’organisation. Dans un monde changeant et complexe, la même réunion devient un point de synchronisation, comme les stand-up meetings du monde agile.

Si je faisais allusion au modèle computationnel de Cohen, March et Olsen, c’est que je me suis livré au même type d’expérimentation il y a quelques années lorsque j’étudiais les réseaux d’affiliation (les graphes de réunions). Le résultat principal est que la structure du réseau de réunion a un impact clair sur la propagation de l’information. Autrement dit, on retrouve la même idée que le réseau de réunion constitue une colonne vertébrale pour la circulation de l’information (dans une grande entreprise), qui crée les opportunités de contacts réguliers et donc oriente la sérendipité, indépendamment de l’ordre du jour ou de l’intitulé des réunions.

On peut remarquer que c’est la même idée de sérendipité organisée qui justifie la création d’un pôle de compétitivité (plus que le financement commun, qui ne nécessite pas l’unité géographique). Un pôle de compétitivité regroupe des acteurs d’un même domaine (laboratoires, startups et industriels) avec un double objectif, celui de réduire les coûts de transaction (le « setup cost » d’une prise de contact ou de communication) et de créer des opportunités de contacts, c'est-à-dire de créer de la sérendipité, puisque l’innovation nait des rencontres. Tout ceci s’applique de la même façon aux réunions dans les entreprises (du moment qu’elles ne sont pas détournées en rituels sans âme et sans intérêt, ou en cérémonies d’annihilation des idées et des compétences).

2. Planifié  versus spontané


Il est facile de se convaincre qu’il est utile d’optimiser l’hypergraphe des réunions (l’autre terme pour le réseau d’affiliation) si celui-ci existe, mais on peut se lancer dans une critique plus radicale et se demander si dans un monde complexe et changeant, il est encore nécessaire de planifier des réunions. Cette question est au cœur de mes réflexions depuis 20 ans, bien avant que je ne m’intéresse aux réunions : dans le monde de l’ordonnancement, puis dans le monde de l’allocation de ressources. La recherche d’un ordonnancement optimal ou d’une allocation de ressource optimale est au cœur de la recherche opérationnelle, mon activité principale à l’époque où je travaillais au e-Lab. La question se pose dès que les données que l’on fournit à l’algorithme d’optimisation sont fausses car elles représentent une photographie du problème à un instant donné, alors que le monde change continument. Mes expériences de l’époque montraient qu’avant de rentrer dans une phase chaotique dans laquelle la planification devient inutile, il existe une zone dans laquelle la meilleure stratégie est une planification globale à priori, suivi de réparations adaptatives en temps réel (le domaine des algorithmes stochastiques et de l’on-line optimization).

J’ai eu la chance de participer à FoE (Frontiers of Engineering) à Chantilly la semaine dernière.  J’ai été frappé par l’analogie avec les problèmes de gestion du trafic. Dans un exposé brillant, Serge Hoogendoorn nous a  expliqué « qu’il y a des sérieuses limites à l’auto-organisation du trafic dans un réseau lorsque la charge augmente ».  Ceci est illustré par la figure ci-jointe (« The fundamental trafic diagram »).  Il faut réguler le trafic dans le réseau routier lorsqu’il y a trop de voitures, tout comme il faut réguler les communications dans une entreprise, lorsqu’il y a trop de participants qui ont trop de choses à se dire. L’auto-organisation, qui fonctionne parfaitement dans une petite structure telle qu’une start-up, devient moins efficace quand la taille de l’entreprise augmente, et surtout lorsque le taux de charge augmente. C’est dans ce cas que le réseau des réunions organisées devient utile.

Tout cela n’est qu’une question de viscosité ! Il faut penser à l’information qui circule comme un fluide visqueux. Plus précisément on peut distinguer deux formes de viscosité :
  • (v1) le temps de set-up évoqué précédemment. Il s’agit à la fois d’un temps de déplacement (le temps pour se rendre au même endroit) et d’un temps de « synchronisation contextuelle », nécessaire avant que l’échange puisse commencer. J’ai déjà parlé plusieurs fois dans ce blog de l’intérêt des outils 2.0 pour réduire ce setup. Cette forme de viscosité explique pourquoi il est difficile de programmer des réunions plus courtes qu’une demi-heure (50% setup et 50% « utile ») – malgré les différentes expériences de réunions très courtes.
  • (v2) le temps d’organisation du meeting : il faut du temps pour planifier, re-planifier dynamiquement si besoin et prévenir les participants. Il y  a de nombreux facteurs qui contribuent à ce type de viscosité : le temps de préparation (chacun sait qu’une réunion est plus efficace si elle est préparée, même si l’on peut quelques fois douter que cette règle que l’on trouve dans les guides de conduite de réunion soit respectée), les conflits avec les autres types d’activités, les effets de chaînes lorsqu’on re-planifie dynamiquement. Il n’est pas difficile de comprendre que cette viscosité augmente avec la taille de l’entreprise et avec le taux de charge des participants.
J’ai cherché pendant quelque temps à démontrer ce que j’avais constaté dans les simulations précédemment évoquées : montrer qu’un calendrier de réunions planifiées était un avantage dans une situation complexe (en fonction du nombre de participants et du taux de charge). Mais ce n’est pas une propriété structurelle ! Sans viscosité, une approche dynamique serait par construction plus efficace. Ce n’est que parce qu’il y a cette viscosité que le « Garbage Can Decision Model » émerge, faute de mieux.

Comme toujours, c’est une question d’échelle. Je lis et j’écoute Jason Fried avec plaisir et intérêt, mais sa vision du travail et de l’entreprise est marquée par une expérience de travaille à petite échelle.  Le travail en petite équipe, c’est la force des liens forts :) Je vous ai commenté dans un billet précédent ce que les sociologues appellent les organisation ambidextres :  la combinaison des équipes (liens forts, les personnes que l’on voit tout le temps) et les communautés (liens faibles, les personnes que l’on voit moins fréquemment –cf. cette excellent  vidéo sur « the strength of weak ties »). Le travail de type « liens forts » est celui que Jason Fried apprécie, c’est le mode de travail des startups. Dans une équipe, le set-up est réduit au minimum : co-localisation, donc pas de déplacement et très peu de set-up contextuel, car en vivant de façon proche, chacun sait ce qui est dans le « top of mind » de l’autre.

Ce concept de viscosité permet d’ailleurs de comprendre encore plus facilement l’intérêt des stand-up meetings :  l’organisation systématique du rendez-vous court du matin, dans lequel chacun fait un point sur ses objectifs de la journée, réduit la viscosité v1 et v2 (le meeting réduit v1 en partageant les contexte et réduit v2 avec un modèle simple et régulier qui crée un rituel et une habitude). Le stand-up meeting est bien un facteur de sérendipité : il permet aux membres de l’équipe de se synchroniser. Le coté « stand-up » est là pour assurer que la réunion reste courte et efficace. Plus généralement, l’organisation lean du travail est tournée vers la réduction de cette même viscosité.

3. Abstraction :  force et faiblesse


Dans une petite équipe ou dans l’entreprise idéale de Jason Fried, les sujets sont abordés en profondeur, avec des faits,  par quelques personnes compétentes. Dans l’entreprise réelle de grande taille, l’information doit circuler largement, horizontalement et verticalement. Les flux sont trop nombreux par rapport au temps disponible, un sujet qui est au cœur de mon dernier livre.

Lorsque les tuyaux sont trop petits, il est naturel – surtout si l’on travaille dans les télécom :) – d’utiliser la compression. Comprimer c’est essayer de dire les mêmes choses avec moins d’information, c'est-à-dire en utilisant des « synthèses », des « résumés », des abstractions. Notons que l’abstraction est une compression dans le sens  de  Kolmogorov ou Shannon, c'est-à-dire une représentation qui doit permettre de reconstruire la réalité du message original. L’utilisation de la compression est universelle dans les grandes entreprises :
  • Dans les présentations Powerpoint,
  • Dans les processus de décision des managers, qui évalue la réalité au moyen de KPI et autre scorecards,
  • Dans l’éducation, où l’on favorise l’apprentissage et la réflexion sur les concepts, plutôt que l’observation et l’analyse des faits.
Mais dans un monde complexe, il faut se méfier à la fois de l’abstraction (cf. Mintzberg et son livre « Managing ») et du « narrative fallacy » (cf. Taleb, le souhait de reconnaitre des histoires, là où il n’y a que des séquences aléatoires … ou complexes).  Je n’y reviens pas, c’est un des leitmotivs de ce blog.
Pourtant, l’utilisation de l’abstraction est une adaptation nécessaire pour les managers, en fonction du nombre de sujets qu’ils ont à traiter, qui augmente avec la taille de leur équipe.  On comprend facilement que plus il y a de sujets à traiter, plus il faut les compresser, c’est-à-dire les traiter « à un haut niveau », « de 10 000 pieds », etc. Je vous propose une petite quantification simpliste de ce problème. 
Si l’on désigne par :
  • scope , le périmètre du manager en termes de sujets qu’il supervise et sur lequel il est amené  à prendre des décision,
  • frequency, la fréquence avec laquelle il évalue ces sujets (une fois par jour, ou une fois par semaine ou une fois par mois, etc.),
  • compression,  le facteur de compression de l’information utilisé, au moyen de l’abstraction, pour traiter le sujet (est-ce le célèbre mémo d’une page, un PPT de 3 page ou de 30 pages, un tableau de bord avec de KPI, un ensemble de données d’usage, etc.)
On aboutit à l’équation suivante qui exprime le fait que les journées n’ont que 24h et qu’il n’y a pas de sur-homme/sur-femme (la contrainte de temps s’applique  à tous) , autrement dit que le temps disponible pour ingérer des données est le même pour chaque manager :

Scope x Frequency  x Compression =  Constant

Cette équation conduit les managers « qui montent en responsabilité dans l’organisation » à s’adapter de deux façons :
  • réduire la fréquence (et par conséquent augmenter la latence de leur décision),
  • augmenter la compression pour pouvoir traiter plus de sujets.
C’est illustré par la figure suivante dans laquelle chaque rond représente un sujet, sa couleur indiquant le produit fréquence x abstraction. Les ronds foncés sont ceux qui sont traités fréquemment et en profondeur, les ronds clairs sont traités soit plus rarement soit de façon plus abstraite. L’équation signifie que la quantité de couleur est constante : s’il y a beaucoup de ronds pour un manager, ils sont forcément plus clairs.  


La complexité croissante de l’entreprise comme de son environnement  rend ces deux stratégies inefficaces :
  • La fréquence doit rester élevée, pour que les problèmes soient traités rapidement et les décisions prises non moins rapidement, afin que l’entreprise s’adapte constamment à un environnement changeant.
  • On ne peut pas prendre des bonnes décisions si l’on compresse trop, c’est l’argument de Mintzberg, ou celui du «genchi genbutsu ».
La conséquence de la complexité du monde est que le « scope » des managers doit rester constant en utilisant :
  1. une vraie délégation,
  2. une organisation en réseau.
Autrement dit, nous venons de retrouver par l’abstraction (le paradoxe est volontaire) ce qu’enseigne la pratique de l’entreprise libérée. C’est illustré, grossièrement, par la partie droite de la figure précédente. L’organisation en cercles concentriques illustre une vraie délégation à des équipes autonomes, une distribution des responsabilités qui respecte la charge constante, de telle sorte que la fréquence reste élevée pour tous les sujets,  afin de garantir la réactivité.