dimanche, décembre 11, 2011

Grammaire de l’inaction et programmation fractale


Aujourd’hui je me propose de commenter deux petites contributions personnelles qui datent de plus de 10 ans, mais que je souhaite revisiter à l’aune du lean management, parce que le lean apporte un éclairage sur ces deux paradoxes.
La première contribution est une « grammaire de l’inaction », un générateur de plans de travail qui permettent de procrastiner, c’est-à-dire de parler de tout sauf de ce que l’on va faire. Cette construction ludique est une sorte de blague de potache « geek », une réaction de jeune collaborateur  face à des présentations de « consultants » que je trouvais fortement ennuyeuses à l’époque. Je suppose que je ne suis pas le seul à avoir assisté à une présentation d’un nouveau projet, d’un nouveau plan de transformation, d’une nouvelle démarche de changement et d’avoir trouvé que :
  • Au bout de 30 slides, on ne sait toujours pas de quoi l’on parle,
  • Le discours est un « discours méta », qui ne porte ni sur le problème et encore moins sur la solution, mais plutôt un « discours de la méthode », sur le « comment » et pas sur le « quoi »,
  • Les même slides peuvent resservir d’un projet à l’autre, d’une entreprise à l’autre, elles sont complètement génériques (d’où l’expression « slides de consultants »).
J’avais construit la « grammaire de l’inaction » qui suit comme une abstraction qui permet de générer un plan de travail très riche, au point que  l’action (le ) se trouve noyé, ou n’a plus besoin d’être détaillé puisque la matière pour produire les « slides » est riche (l’application de l’aphorisme « noyer le poisson »). C’est une grammaire au sens informatique du terme, en format BNF, puisqu’il s’agit d’une plaisanterie de geek. Je l’ai utilisé une fois en présentant un jeu de slides sur une « nouvelle stratégie informatique » d’un consultant célèbre, Mr TerShiBul (à lire à l’envers) … et personne n’a détecté de supercherie, ce qui a été une grande leçon d’humilité sur mes propres slides !

  (do)   ::=     (pre-validate) (do)  |
                   (plan)  (do)  (followup) |
                   (explain) (do) (training) |
                   (instrument) (!—set up measure --) (do) (measures analysis) |
                   (set up success criteria) (do) (check) |
                   (small scale POC) (partial do) (do) |  (!-- partial: spatial/geographical/organizational  --)
                   (quick wins) (first step : 80/20) (do) |
                   (list all possible action paths) (do)  (!— the longer the list, the less content --)

(pre-validate) ::= (prototype) (feedback) | ( stakeholders opinion poll) | (build ROI case)

(plan) ::=  (benchmark) (plan) |
                   (study) (plan) |
                   (data collection from the field) (plan) (verification) (!—check against data--)



Note: J'ai abandonné l'idée d'utiliser des "brackets", d'ou le recours aux parenthèses (confusion HTML/BNF). Cette grammaire ne demande qu’à s’enrichir, je suis preneur de nouveaux « patterns » :
C’est une grammaire de l’inaction dans le sens où, au lieu de s’occuper de ce qu’il y a à faire (le ), on peut dériver une longue chaine de choses à faire autour du . Le délicieux paradoxe est que le lecteur avisé aura reconnu tous les principes du management de la qualité, certains principes de la gestion du changement et du pilotage de projets, bref, tout ce que je prône dans mon dernier livre. Cette tension entre ma perspective d’aujourd’hui – un chantre du TQM – et ma perspective d’hier – stop au baratin (le terme anglais qui me vient à l’esprit est moins ragoutant) - , est résolue par le lean management. Plus précisément, par les trois principes suivants :
  1. On parle des vraies choses : on décrit les problèmes de façon pratique et systémique (grâce au management visuel), on parle des solutions concrètes.
  2. Comme tout ceci n’est pas forcément simple, on va « sur le terrain » (gemba ) pour confronter la situation, le problème. Parler d’une solution « en situation » est la meilleure façon d’éviter d’être « à coté de la plaque ».
  3. On évite les listes trop longues, on se concentre sur quelques actions, on les priorise, et on travaille sur une chose à la fois, puis on recommence.

Bref, le lean est radicalement opposé au « discours de la méthode », même s’il repose sur une méthode (on laisse le méta pour les discussions de salon et les livres, on pratique la résolution de problème).

J’en viens maintenant à mon deuxième sujet, la méthode de développement logiciel que j’ai utilisée au cours des années (en particulier lorsque j’étais au e-Lab), et que j’avais baptisée de « Fractal Programming » il y a dix ans. J’ai profité des vacances d’Aout 2011 pour me lancer dans un projet logiciel, « Systemic Simulation of Smart Grids », et j’ai instinctivement réappliqué les mêmes principes :
  • Un programme est une résolution de problèmes emboîtés, de façon récursive (d’où le terme de fractal). La première étape est une approche top-down (qui correspond à une architecture fonctionnelle) qui décrit l’arborescence des problèmes à résoudre.
  • Puisque j’utilise un langage fonctionnel de haut niveau d’abstraction, je produis directement du code (CLAIRE). Un des principes est de produire un programme qui est à la fois exécutable et sa propre description d’architecture.
  •  J’utilise une approche « orientée-objet » qui fonctionne par raffinements successifs au fur et à mesure du développement du code (la structuration des données est une colonne vertébrale du code).
  • En revanche, je commence par écrire le programme de test : cela donne le premier input pour les objets et valide les interfaces de l’architecture fonctionnelle.
  • L’objectif est d’obtenir le plus rapidement possible un premier programme qui tourne. Le programme simple permet de valider les entrées/sorties avant que les erreurs soient cachées dans des fonctionnalités obscures. Le programme simple est également le « workbench » pour le développement des algorithmes qui vont suivre.A tout moment, je travaille sur un code exécutable avec des objets que je peux inspecter (un des avantages d'un outil qui descend de LISP).
  •  Lorsqu’on commence à remplir le fractal, c’est-à-dire écrire des algorithmes qui résolvent des sous-problèmes, on commence par ce qui est le plus difficile, mais en appliquant une approche de raffinement successif. Chaque raffinement peut être testé contre son prédécesseur.

Cette notion de « Fractal Programming » n’est pas originale. On la retrouve sous plusieurs formes chez différents blogueurs. Il s’agit en quelque sorte d’une déclinaison de l’extreme programming pour une micro-équipe, voir un développeur isolé (ce qui est mon cas depuis 10 ans). Le terme est surtout utilisé pour décrire la génération de fractals par programme
En revanche, pendant je faisais mon jogging matinal, je me suis aperçu que mon expérience me permettait de réinterpréter ces principes avec une perspective de « lean management ». En particulier, le même proverbial « lecteur avisé » aura reconnu les principes suivants :
Pour conclure, je vais citer le « pretotyping manifesto », qui n’existait pas il y a 15 ans, mais dont j’aurai pu m’inspirer (le lien avec Eric Ries est évident) :
  • Innovators beat ideas
  • Pretotypes beat productypes
  • Building beats talking
  • Simple beats complex
  • Now beats later
  • Commitment beats committees
  • Data beats opinion

On est bien dans la philosophie lean : priorité aux femmes et aux hommes, priorité à l’action, priorité à ce qu’on peut faire tout de suite, priorité à ce qui est démontrable et factuel.

samedi, novembre 26, 2011

Prix du livre Qualité et Performance 2011


J’ai reçu il y a 15 jours le Prix du livre Qualité et Performance 2011  pour mon livre « Processus et Entreprise 2.0 »
Je suis très heureux d’avoir reçu ce prix prestigieux, eu égard à la qualité de son jury, composé pour moitié d’universitaires et pour moitié de managers et dirigeants ayant une expérience reconnue dans les domaines de la qualité et de la performance.

Ce prix fait suite à une série d’articles et de billets très positifs :

A lire également, l’article de Richard Collin dans le monde, qui a eu la gentillesse de rédiger ma préface. 


Je viens de déposer dans ma "box" de talks publics ("my Shared Documents" en bas à gauche) un explosé intitulé "LeanEntreprise2.0" qui présente les idées clés du livre.

jeudi, août 18, 2011

"Lean Startup" et "Lean Product Development"

Je profite de la période estivale pour vous parler de « The Lean Startup », un livre de Eric Ries qui sortira en Septembre. En attendant d’acheter le livre, vous pouvez voir ses exposés, par exemple sur YouTube, il existe aussi un Wiki dédié à sa méthode.
Le livre d’Eric Ries est avant tout un livre remarquable sur l’innovation. Eric Ries s'appuie sur des grands classiques (G. Moore, etc.), mais il va plus loin et il apporte des histoires illustratives qu'il explique très bien. C’est également le meilleur livre que je connaisse sur les startups et ce qui fait leur succès. J’y ai retrouvé les perles de sagesse que j’avais recueillies auprès de différents VC (venture capital) en Californie. Par exemple, il y a 5 ans, un très grand VC avec 25 ans d’expérience m’a livré la réflexion suivante : pour une start-up qui arrive avec un produit logiciel, il n’y a aucune corrélation entre son succès et la qualité de son premier prototype (ce qui est brutal !), le succès dépend entièrement de deux choses : le fait d’entendre les premiers clients qui sont placés face au produit, et le fait de savoir s’adapter, y compris de façon drastique, ce que Eric Ries appelle un pivot. C’est, pour finir, un très bon livre pour comprendre comment appliquer le
lean dans le monde des services et le monde des “knowledge workers”, et ce qui justifie que je vous en parle. On retrouve ici le lean “façon-Toyota”, celui qui s’intéresse à l’individu, à l’apprentissage en équipe, à l’innovation, à l’excellence.

Comme toujours, voici une liste partielle des points saillants, orientée par mes propres questions et réflexions sur l’architecture organisationnelle:

  • Le point le plus intéressant est le concept de « validated learning ». La question que se pose Eric Ries, au sujet d’une startup ou d’une « direction innovation » est la suivante : que produit le « processus innovation » et comment le mesurer ?. La réponse d’Eric Ries est que le processus d’innovation produit de la connaissance sur les besoins, attentes et usage du client. Le validated learning représente une idée créatrice de valeur, validée par des clients et donc démontrée par un objet (logiciel dans la plupart des cas). Je parle d’idée pour représenter le concept qui est « appris », mais cette idée est matérialisée par une expérience (cf. le MVP plus loin). L’objectif d’une start-up, ou d’une direction de l’innovation, est d’obtenir une masse critique de “validated learning”. Sa stratégie, du point de vue lean, est de maximiser la création de “validated learning”, et donc d’acquérir le plus vite possible l’expérience de ses clients et le savoir de ce qui leur est réellement utile. Comme dans toute approche lean, ce processus de création d’expérience est optimisé selon un cycle «build-measure-learn », ce que nous allons voir plus loin.
  • Minimum Viable Product (MPV): C'est l'enseignement le plus pratique, le plus essentiel ... et le plus difficile pour une grande entreprise :) . Plutôt que de construire des produits riches et complets, qui peuvent - le plus souvent - passer à côté des vrais besoins des clients, il faut travailler avec des livraisons fréquentes de “petits produits”. De la sorte, (1) on évite les erreurs coûteuses et on rectifie le tir plus rapidement, (2) on est exposé beaucoup plus vite au retour des clients, et on peut commencer plus vite à apprendre de ces retours. C’est bien sûr une application du lean, puisqu’il s’agit de supprimer un des gaspillages les plus importants: créer des “features” que personne n’utilisera jamais ! Le minimum viable product apporte une solution au client, ce qui suppose qu’il existe une question (un problème). Ries propose de se poser les 4 questions suivantes :

    • Est-ce que les clients sont conscients d’avoir un problème
    • Si on leur propose une solution, est-ce qu’ils l’achèteraient ?
    • Est-ce qu’ils achèteraient notre solution ?
    • Est-ce que nous savons construire une solution ?

Je recommande chaleureusement de lire l’exemple de Dropbox, pour lequel le MVP est une vidéo qui décrit l’expérience client ! Drew Houston a utilisé une vidéo de 3 minutes pour valider (précisément !) une intuition sur ce que les clients attendaient d’une solution de synchronisation.

  • Innovation Accounting: C'est la partie du livre qui relève de l’analyse systémique, ou Eric Ries définit le cycle build-measure-learn pour le processus d’acquisition de “validated learning”. Cette partie est difficile à résumer car elle contient un “cours systémique” sur les différents types de business models, et les indicateurs qui sont pertinents en fonction de ces business models. On retrouve ici le message clé du chapitre 2 de “Processus et Entreprise 2.0”: pas d’indicateur sans modèle (une mesure n’apporte rien si on ne peut pas l’interpréter avec un modèle de fonctionnement). Pour citer Eric Ries “When cause and effect is clearly understood, people are better able to learn from their actions”. L’objectif de l’ « innovation accounting” est d’établir la corrélation entre les progrès - vus et mesurés sur le de vue du client - et les changements sur le produit (ce que l’entreprise développe). Un des points clés est que l’approche “validated learning”, qui forme une sorte de roue d’amélioration continue, est une force de progrès : les réactions négatives des clients sont aussi importantes et utiles que les réactions positives. Elles contribuent dans les deux cas à accroître la connaissance acquise. Selon les termes d’Eric Ries, “the solution is a commitment to iteration”.
  • Flows: Les flux de clients sont l’ingrédient principal des business models que nous venons d’évoquer. La section (hélas trop courte de mon point de vue) sur l'analyse des flux clients, des cycles de vie, des cohortes, devrait faire partie du kit de survie pour les managers. Il y a ici, rassemblées en quelques pages, des leçons que j’ai mis un certain temps à apprendre et qui sont essentielles. J'utilise ce type de situation lorsque je donne des exemples pratiques de l'intérêt de l'approche systémique (ma question préférée est : si on attend assez longtemps, est-ce que les parts de parc des opérateurs convergent vers les parts de parc ?)
  • Small batches : il faut réduire la taille des “unités d’œuvre” (projets, logiciels, expériences, produits) et travailler avec un cycle rapide de petits incréments. Cette section est une application "text-book" du lean, mais elle est remarquablement expliquée et instanciée. Comme c'est un des axes majeurs d'amélioration pour les directions innovation et développement, c'est un apport majeur de mon point de vue (voir par exemple la remarque sur l'émergence du rework dès que les batchs sont trop importants). Les explications sur les "common misconceptions about the strengths of large batches" illustrent ce qui fait la force du livre : Eric Ries a bien compris et analysé nos résistances au changement (de façon de voir le monde) que représente le lean. Le cycle rapide permet de prendre en compte plus vite le retour client (cf. MVP) et de façon plus générale, il est mieux adapté à un environnement incertain puisqu’il permet de “corriger le tir” plus facilement (l’incertitude étant liée aux attentes clients, aux coûts de développement, à ce que font les concurrents, etc.)
  • On retrouve au long du livre d’autres principes du TPS qui sont adaptés au monde de la start-up, comme par exemple la mise en œuvre des “5 Whys”.





La référence qu’Eric Ries sur le sujet de « small batches » est « The Principles of Product Development Flow » de Donald Reinertsen. Je me suis donc empressé de l’acheter et de le lire. Même si le style auto-glorifiant peut agacer, c’est un excellent livre, et c’est la meilleure référence que je connaisse sur le lien entre le lean et la théorie des files d’attente. Cette proximité

systémique est évidente (j’y ai fait allusion dans ce blog et dans mon livre), on la trouve mentionné dans les livres de Michael Georges par exemple. Mais le livre de Reinertsen est, de beaucoup, le plus complet sur ce thème. Pour que les choses soient claires, il ne s’agit pas de réduire le « lean » à une optimisation systémique de la tuyauterie ! Mais il y a une dimension systémique qui hérite de nombreuses disciplines de l’ingénierie de systèmes, depuis les files d’attentes aux réseaux de communication en passant par la conception de systèmes d’exploitation. C’est la contribution principale du livre de Reinertsen, avec une belle bibliographie qui démontre la largeur de sa culture en termes d’optimisation de systèmes. Voici une liste des points qui m’ont le plus intéressé, sachant que je n’insiste pas sur ce que je considère acquis (l'apport de la théorie des files d'attente et ses formules):

  • Le premier chapitre « What is the problem ? » commence avec une jolie liste de 12 difficultés liées à l’approche classique du développement de produit. Cette liste est fort pertinente, selon mon expérience, et s’applique aussi bien au développement de logiciel qu’au développement de services, deux activités que je pratique depuis fort longtemps. Ce sera le sujet du prochain European Lean IT Forum, que je vous recommande. Un des points clés (cf. Lean Startup) est que le « fast feedback is key to product development ».
  • Un des aspects original du livre est d’aller chercher dans l’expérience de la stratégie militaire des leçons d’organisation, en favorisant le decentralized control & alignment”.
  • La dimension cruciale qui justifie l’application des principes lean au développement de produit est le « Cost of Delay », qui est souvent caché, mal compris voire ignoré. Le COD reçoit une attention toute particulière dans ce livre, avec de nombreux exemples. Dans le modèle générique d’entreprise que je développe (BPEM – le sujet d’un prochain billet et d’un article), je fais du COD une des métriques clé de la performance d’entreprise. Reinertsen propose une analyse dont il déduit des « formules sympathiques », comme celle de la page 69 qui donne le débit optimal en fonction du COD et du « Cost of Capacity ».
  • Le livre est émaillé d’application aux organisations modernes et de citations réjouissantes (même si elles sont caricaturales) du type « Capacity is restricted because marketing resources tend to be spread across many opportunities with a low duty-cycle on each activity ».
  • On trouve page 98 un joli diagramme systémique qui explique les avantages des « small batches » (cf. plus haut). L’application à l’activité de test logiciel (par exemple, p. 129) est très intéressante. Une citation a propos du TPS : « The 100-fold improvement in manufacturing cycle times was not achieved by finding bottlenecks and adding capacity to the bottlenecks. It was achieved by reducing batch size”. Je vous recommande la liste des examples pratiques, page 136, de “batch size” dans le monde du développement de produit ou de logiciel.
  • De la même façon, le concept clé du WIP (Work in Process) est très bien expliqué. L’application de la formule de Little qui lie le WIP au cycle time est mentionné, puis de nombreux exemples/applications pratiques sont mentionnés : shedding requirements , purging low-value projects , blocking demands when WIP reached its upper limit, applying extra resources to an emerging queue, etc. Ce dernier point m’a évidemment rappelé les expériences faites il y a 6 ans sur l’optimisation des processus informatiques (OAI). Un des principes essentiel du maintien des SLA (qualité de service) est la bonne gestion des cas d’exception (cf. p. 160). On y trouver également une reconstruction brillante du heijunka de Toyota : le lissage de la charge à travers des mix d’activité. Une citation sur le contrôle de l’injection de nouveaux projets dans le cycle de développement : « By controling density, we control speed and throughput » (analogie avec l’injection de véhicule sur les autoroutes de Los Angeles pour éviter les bouchons).
  • Un autre aspect original du livre est de faire le lien entre l’efficacité d’un processus de développement (vu comme un problème de flot) et les techniques employées dans les réseaux de données (ex : réseaux IP) , telles que le throttling. J’ai particulièrement apprécié ce point puisqu’il fait le lien entre mes deux démarches : l’optimisation des systèmes d’information (cf. mon autre blog et le papier précédemment cité) et l’optimisation de la performance d’entreprise. Reinertsen milite pour « The principle of Differential Service : Differentiate quality of service by workstream » (p. 161), qui est précisément que l’objectif de l’optimisation des processus dans un système d’information. Ce n’est donc pas une surprise si l’on retrouve des approches heuristiques semblables (en termes de priorisation par exemple). Je reviendrai sur ce point technique lorsque j’aurai eu l’occasion de faire des simulations computationelles. En passant, tout n’est pas parfait dans ce livre : la vision sur les algorithmes de scheduling est quelque peu naïve … le sujet est plus complexe que ce pense Reinertsen (il fut un temps ou j’étais un spécialiste de ce sujet).
  • Pour finir, ce livre couvre en détail les aspects temporels de la gestion de processus : cadence, synchronization, … On trouve (ex : p.177) des explications imagées et pratiques pour saisir le rôle fondamental de la synchronisation dans le travail des « knowledge workers », une idée que j’ai souvent exprimée dans ce blog, mais qui est remarquablement expliquée par Reinertsen. Je cite par exemple : « Many people assume that holding meetings on-demand will provide faster response time than holding them on a regular cadence. This would be true if everyone was just sitting idle, waiting to be called to a meeting. However, most organizations are loaded to high-utilization rates. It takes time to synchronize schedules for a meeting. This adds an inherent delay, or latency, to the timing of an on-demand meeting”. Une autre citation que j’apprécie parce qu’elle recouvre ce que j’ai appris concrètement sur l’urbanisation des SI: “ In asynchronous circuit, we pass the signal to the next gate as soon as it arrives. This reduces delays, but it permits timing errors to accumulate. In general, asynchronous circuits are faster, but synchronous circuits are more stable”. Ce principe est appliqué avec bonheur aux revues de projet, montrant la supériorité d’une approche synchrone et régulière sur une approche asynchrone (telle que produite par l’email).




lundi, juillet 18, 2011

La Bureaucratie Moderne – l’organisation rétrograde mutante

J’ai terminé avec le plus grand bonheur la lecture du dernier livre de François Dupuy, « Lost in Management », ce qui m’a conduit à réfléchir sur les formes persistantes de bureaucratie. La bureaucratie peut être considérée comme l’aboutissement de l’organisation du 20e siècle.


Commençons donc, comme d’habitude, par une liste de quelques points clés de « Lost in Management ». Il s’agit une fois de plus d’un livre qui ne se prête pas au résumé, puisque c’est le travail d’un sociologue, issu des observations « de terrain ». François Dupuy a un vrai talent (et j’ai eu le plaisir de l’entendre présenter ce livre lors d’une conférence de l’ ANVIE) de raconteur d’histoires, avec beaucoup d’humour et des formules qui font mouche. Ce qui suit ne fait donc pas justice à ce livre que je recommande chaleureusement :


  • Les bureaucraties sont des organisations tournées vers leurs besoins internes. François Dupuy nous rappelle cette observation avec force. L’ « obsession du client » a remplacé l’écoute de celui-ci, et l’entreprise s’organise autour de ses besoins propres (reporting, procédures, décisions). Le « couple infernal intégration-processus » est l’outil principal de cette bureaucratie moderne. La bureaucratie engendre la segmentation car les organisations ont peur du risque et la segmentation des responsabilités est une protection contre la prise de risque.
  • Les entreprises parlent beaucoup de simplicité, pourtant elles s’en méfient. Cela relève d’une tendance des organisations – et pas seulement des entreprises – à valoriser les thèmes qui sont à l’exact opposé de leurs pratiques (p. 164). La simplicité n’est pas la clarté : peu de choses sont « claires » dans la vie collective et le recours à la notion de transparence – « dis moi tout et je ne te dirais rien » - n’en paraît que davantage manipulateur (p. 246). C’est un point fondamental : dans un monde complexe, la simplicité de l’entreprise est une « simplicité des relations et des modes de travail », il ne s’agit pas de pouvoir tout formaliser et tout expliquer.
  • Le cloisonnement protège les collaborateurs du sentiment de responsabilité. Les « silos » sont les «paradis des experts ». La forme segmentée et séquentielle du travail protège différemment les membres de l’organisation (p. 65). Cette forme, héritage du Taylorisme, permet à chacun « de vivre dans son coin », en développant sa propre logique, sans confrontation, mais sans réelle responsabilité non plus.
  • Un des points essentiel du livre est que les règles « ne sont importantes que par l’usage que les acteurs en font ». Les règles ne définissent pas le jeu, elles le structurent (p. 145). On retrouve ici le « mythe de la clarté » : vouloir tout formaliser et attribuer tous les rôles sans ambigüité est d’une part réducteur et d’autre part générateur d’une complexité dans les modes de travail (la « clarté » chasse la simplicité).
  • François Dupuy dénonce avec beaucoup d’humour l’abus des KPI. Il dénonce en premier lieu leur trop grand nombre, et les conflits logiques que cette abondance entraine. Cette « sur-contrainte » est contre-productive et entraine des comportements de défense. Plus profondément, cet abus traduit une volonté de sur-contrôle qui, parce qu’elle est privée de sens, conduit à une absence de contrôle. La direction dispose de tableaux de bord multiples, mais ne sait plus ce qui se passe. Pour contrer la tendance naturelle de la perte de pouvoir liée à l’accroissement de la complexité, les managers en demandent toujours plus en termes d’indicateurs, d’objectifs, de données, utiles ou non (p. 141).
  • Il insiste sur l’importance du « management de terrain » et fait le lien avec le « Toyotisme » (le Toyota Production System de Taiichi Ohno). Les directions générales doivent relever le défi de la confiance dans le management de proximité (et ne pas céder à la tentation du panoptique).
  • Un point remarquablement intéressant est l’importance du pouvoir local, avec une certaine forme d’arbitraire, au sens du libre arbitre. L’application bornée des règles, des méthodes ou des standards (qui est au contraire au lean management de Toyota) conduit à supprimer cette autonomie locale et ce pouvoir d’innover, ce qui tue la capacité à progresser. Je renvoie le lecteur à mon chapitre 2 ou aux écrits de Michael Ballé.
  • Le livre se termine sur trois cas fort intéressants d’entreprises qui semblent avoir dépassé ces difficultés. On y trouve –surprise ?- des « chevauchements » dans les responsabilités, une organisation « floue », et la capacité à travailler ensemble sans être forcément proche, parce chacun bénéficie d’un haut degré d’autonomie, et a conscience de participer à un jeu collectif.

Il est clair en lisant François Dupuy, ou en regardant autour de soi (cf. les enquêtes sur le désinvestissement dans le travail), que les bureaucraties ne sont pas mortes. Elles ont évolué sous une forme mutante que je qualifierai de « bureaucratie moderne ». Voici quelques traits caractéristiques de ces organisations :

  • Suivant les principes de Frederick Taylor, elles séparent ceux qui font de ceux qui disent comment faire. C’est le principe du « bureau des méthodes », un principe de spécialisation de l’organisation du travail (des autres).
  • Les responsabilités sont découpées et spécialisées, ce que François Dupuy observe comme une « segmentation des responsabilités », qui une réponse à la peur du risque.
  • La technique est subordonnée, vassalisée voire sous-traitée. « Il ne fait pas raisonner d’un point de vue technique » est devenu une excuse pour s’affranchir des contraintes techniques, qui sont reléguées dans des organisations satellites, et apparaissent souvent de façon tardive dans les processus de développements.
  • L’écoute du client est devenue « l’obsession du client », une affaire de spécialistes.
  • Face à un environnement qui se complexifie, l’entreprise cherche à minimiser ses risques et augmente de façon constante les étapes de validation préliminaire, au détriment de la rapidité.

Les lecteurs de ce blog auront tout de suite repéré que ces caractéristiques sont en contradiction avec les principes de l’entreprise du 21e siècle, telle que je la décrit dans mon livre, ou plus simplement avec ceux du lean management.

  • La séparation entre le métier et la technique est devenue contre-productive dans ce siècle de technologie numérique. L’intrication de la technologie dans nos processus et nos usages est trop forte pour que cette séparation fonctionne. L’innovation vient d’une compréhension conjointe des enjeux métiers et des enjeux technologiques. C’est ce que pratiquent avec bonheur les startups de la Silicon Valley (mon prochain billet sera sur « The Lean Startup » d’Eric Ries).
  • La séparation entre l’opération et la conceptualisation ne fonctionne plus dans un monde complexe. C’est brillamment expliqué par Mintzberg dans « Managing » et c’est la base du « genchi genbutsu » du lean management.
  • L’orientation client est l’affaire de tous et de toutes les oreilles de l’entreprise. C’est un autre principe du lean management.
  • Le processus appartient à ses acteurs, auxquels il ne faut pas confisquer la responsabilité. Le principe du kaizen requiert des acteurs autonomes et responsables, c’est une condition indispensable pour le progrès.
  • La surcharge d’indicateurs est le symptôme du sur-contrôle, d’une soif de « tout savoir » qui est incompatible avec la complexité des activités aujourd’hui. C’est la tentation du panoptique de Bentham.

Les caractéristiques opposées de l’entreprise du 21e siècle, telles qu’elles émergent de façon consensuelle dans la majorité des ouvrages sur le management que j’ai pu citer (dans ce blog ou dans mon livre) sont :

  • Le « lean management »,
  • La co-construction, (qui conduit à des organisation floues avec des recouvrements),
  • Le développement agile, avec le raccourcissement des chaînes de décision et l’implication de tous « sur le terrain »,
  • La prise de risque, et donc la valorisation de la culture d’entreprenariat,
  • La délégation, pour favoriser l’autonomie qui est vitale pour être plus rapide et plus pertinent.

mardi, juin 21, 2011

Communication, réputation et contre-don

Je viens d’ajouter à ma liste des exposés publics (ceux qui sont disponible sur le widget « My shared documents » à gauche) l’exposé que j’ai fait au colloque conjoint le 29 Mars entre l’Académie des sciences et l’Académie des technologies sur les réseaux, intitulé « ExposéRéseauxSociauxEntrepriseMars2011 ». Le titre complet est « Les réseaux organisationnels d’entreprise : relier l’efficacité de l’entreprise à la structure de ses réseaux de communication ». Le contenu de cet exposé ne devrait pas surprendre les lecteurs de ce blog, même si la sélection éditoriale est volontairement « académique », et souligne les thèmes scientifiques sous-jacents à l’architecture organisationnelle.

Mon propos aujourd’hui est à l’opposé de cette vision scientifique, il touche à l’aspect humain de la communication. La 5e slide de l’exposé reprend la figure décrite dans un de mes précédents billets. L’idée simple de cette figure est que la communication est un processus, pas un simple transfert d’information, ce qui explique pourquoi la gestion du temps est essentielle dans l’efficacité de l’entreprise à manager ses flux d’information. J’ai fait ensuite la remarque qu’il y avait différentes dimensions « humaines », liées par exemple à la dynamique qui se crée, ou ne se crée pas, dans l’interaction. Je vais aujourd’hui aborder cette dimension politique/personnelle de la communication. Je sors à la fois de mon champs de compétence, et de celui de ce qui est modélisable (au sens de l’expérience computationnelle), mais cette dimension est incontournable.

La vie dans une grande entreprise est truffée de paradoxes, dont j’ai pu faire, comme beaucoup, l’expérience personnelle :

  • Pour les raisons exposées précédemment, la capacité à communiquer est proportionnelle à l’écoute, et son attribution est éminemment politique. Il n’y a pas de corrélation avec la valeur intrinsèque du message. On peut être porteur d’une information essentielle, et n’être ni écouté ni entendu. A l’inverse, une personne peut imposer une solution, non pas sur le mérite de la solution mais de son pouvoir, réel ou perçu.
  • Cela peut prendre la forme paradoxale suivante : plus on est compétent, moins on est entendu. Il est amusant de voir les mêmes personnes qui sont venues vous demander votre avis à une époque où vous ne connaissiez pas grand-chose à un sujet, se méfier de votre opinion quelques années plus tard lorsque ce sujet vous a été confié et que vous avez un avis autorisé. En fait, c’est cette autorité qui change la nature de la communication :autrefois vous étiez consulté, aujourd’hui vous devriez être entendu, il est donc préférable de ne pas vous écouter.
  • Un autre paradoxe est que lorsque vous proposez une information qui peut aider un autre manager, l’écoute dépend de la volonté, ou non, de vous être redevable. Accorder un temps d’écoute relève du don (donner son temps) et du contre-don (accepter, potentiellement, d’être reconnaissant).
  • Cette dynamique complexe de la gestion du temps de parole et d’écoute, qu’ils s’agissent de réunions ou d’entretiens particulier, décrit un réseau de pouvoir, voire un véritable phénomène de cour. Pour les sociologues qui étudient la prise de parole en réunion, cette dimension de pouvoir est centrale. Il s’agit d’un système complexe, avec des boucles rétroactives : plus votre réputation « à la cour » est grande, plus le temps d’écoute vous est octroyé, ce qui permet d’apporter et d’affirmer sa valeur et de nourrir la réputation. En revanche, une perte perçue de « légitimité » peut rapidement priver de l’accès au temps d’écoute, et provoquer une baisse mécanique de la réputation. Comme il y a un mécanisme de cercle vicieux/vertueux avec amplification, le moindre signal peut avoir des effets importants (un peu de systémique !). Ainsi, comme à la cour, les petites marques et attentions indicatrices de proximité avec le chef/le pouvoir sont guettées et analysées JNotons, en passant, qu’il y a ici un « joyeux sujet » pour un amateur de réseaux sociaux et d’émergence.

Une partie des clés pour décoder ces paradoxes nous est fourni dans l’excellent livre de Norbert Alter, « Donner et prendre, la coopération en entreprise ».

Sans chercher à résumer ce livre qui mériterait un billet à part entière, une des thèses principales est que la coopération n’est pas naturelle ou indolore, elle suppose un échange des deux parties, un don et un contre-don. On y retrouve une idée essentielle exprimée également par Yves Morieux :coopérer, c’est mettre ses marges de manœuvre au service des autres (j’ai fait de son exposé le thème d’introduction de mon propre livre). Norbert Alter nous explique que la collaboration, et la communication qui la soutient, est un échange qui nourrit la reconnaissance, dans lequel il y a enrichissement de part et d’autre. Son chapitre 6 sur l’importance de lareconnaissance est essentiel pour comprendre la collaboration, un point qui m’a été souligné par Jean-Luc Walter. Dans un échange coopératif, il y a création de « goodwill » (de « bon vouloir »), celui qui bénéficie de la coopération directement devient « l’obligé de l’autre ». Une forme de réciprocité s’installe, un rite qui est fortement lié à la culture de l’entreprise. Les émotions, les rituels, les coutumes jouent un rôle essentiel que Norbert Alter décrit avec précision. Il ne s’agit plus de « mobiliser » pour créer la coopération, mais de « tisser les liens et les circonstances », de « jardiner un potentiel de situation », pour reprendre une de mes métaphores favorites.

Il en suit que le modèle proposé par la figure précédemment citée est forcément incomplet : à coté du « modèle mental » de chaque individu, il convient de représenter sa « réputation », une abstraction de la façon dont il est perçu par les autres. Un modèle possible est de penser à la réputation comme une somme de « dettes », de « reconnaissances » des autres. Le pouvoir est une forme de réputation, il est défini par la somme des contraintes que les autres vous reconnaissent le droit d’exercer sur eux-mêmes. Cette vision de la réputation est proche du « reputation capital », un concept qui est particulièrement important dans le monde 2.0. Ce n’est pas une surprise, puisque la réputation et les réseaux sociaux sont irrémédiablement liés : le premier influence le second, et le second est l’outil pour construire le premier. L’objectif du « knowledge worker » n’est pas simplement d’obtenir l’information nécessaire pour produire de la valeur, c’est également de maximiser sa « réputation ». On retrouve ici l’importance de la reconnaissance, une dimension importante de l’entreprise 2.0.

Une communication est un échange d’information, c’est également une opération sur les réputations. Un échange fructueux implique un contre-don, une augmentation de la réputation. Il peut s’agir de la réputation au sens classique, puisque celui qui fournit des informations pertinentes aux autres acquiert (par exemple sur le Web 2.0) une meilleure réputation. Il peut également s’agit de la réputation définie précédemment comme la somme des « dettes ». Celui à qui je fourni une information pertinente devient « mon obligé ». Cela peut être très subtil, mais il y a presque toujours contre-don. Dans des cas extrême, on retrouve le paradoxe précédemment évoqué : se faire aider crée une dépendance, une subordination. Il existe une interaction subtile entre le réseau social du pouvoir (qui décrit précisément les relations de subordination, de compétition) et le réseau social de communication : les échanges d’information qui «heurtent » les relations de pouvoir sont de facto freinés (souvent par l’absence d’écoute). Certains sociologues ont déjà pensé à inverser cette proposition pour déduire les relations de pouvoir des traces des échanges (cf. ce que j’ai écrit sur la recherche des hommes/femmes clés à partir des logs email).

L’intérêt de ce modèle est qu’il explique très simplement les paradoxes précédemment évoqués. J’irai même jusqu’à dire que c’est le premier apprentissage de ce qu’est le management dans une grande entreprise : apprendre à reconnaitre l’intérêt politique de ses interlocuteurs à entendre le message qu’on souhaite leur porter. Avec le recul, j’aurai volontiers ajouté cette dimension à mes enseignements de MBA il y a vingt ans.

On pourrait penser que cette dimension invalide tout espoir de modéliser et comprendre l’architecture organisationnelle des flux d’information. Fort heureusement (de mon point de vue), il n’en est rien car la majorité des informations professionnelles circulent avec des enjeux de pouvoir beaucoup plus faibles, et la dimension structurelle est prépondérante. En revanche, il me semble pouvoir tirer deux éclairages de ce début d’explication de la dimension politique de la communication :

  • Il est illusoire de vouloir couvrir l’ensemble des échanges avec une théorie uniforme. Plusieurs natures de flux se superposent. Dans certains cas, l’aspect sémantique évoqué dans le billet précédent est la dimension la plus contraignante : les gens se parlent, s’écoutent mais ne se comprennent pas. Dans d’autres cas, la dimension politique est dominante : les gens n’ont pas intérêt à s’écouter (de leur point de vue) et aucune communication ne s’accomplit. Dans le cas le plus fréquent, c’est la dimension temporelle qui limite : l’information est disponible, mais le temps et les circonstances pour l’appropriation font défaut.
  • La dimension « pouvoir et politique » de la communication est essentielle pour appréhender les difficultés à déployer un modèle d’Entreprise 2.0. Dans de nombreux cas, « information is power » et la libre circulation est une utopie. Comme le remarque François Dupuy dans « Lost in Management » (que je commenterai bientôt dans ce blog puisque ses analyses sont remarquablement pertinentes et complémentaire aux miennes), la coopération est tout sauf naturelle. La dimension de don et contre-don, expliquée par Norbert Alter, est essentielle : il faut la prendre en compte pour construire un plan de transformation de la culture d’entreprise. Le déploiement de la culture 2.0 est indissociable de la notion de réputation, qui représente la substitution d’une forme de pouvoir (hiérarchique) par une autre.

dimanche, mai 08, 2011

Processus et Entreprise 2.0 est disponible


Mon dernier livre "Processus et Entreprise 2.0" est enfin disponible. Je ne vais pas vous faire un résumé du livre, les lecteurs de ce blog retrouverons les idées et les thèmes qui ont été développés depuis 5 ans.
En revanche, lorsque je suis conduit à parler de ce livre, j'ai besoin de prendre du recul pour parler de la "big picture", ce dont le livre traite de façon générale. Grace à quelques joggings qui ont un très bon effet sur les neurones pour m'aider à synthétiser mes idées, j'ai une vision plus pregnante que ce que j'ai pu développer dans mes précédents billets et que je vais vous livrer.
Ce livre, au fond, propose une nouvelle vision de l'entreprise du 21e siècle, mieux adaptée à la nature complexe du monde dans lequel nous vivons, et qui rejaillit sur l'entreprise. La complexification du monde est un sujet majeur que j'aborde dans le livre, mais que d'autres ont déjà évoqué abondamment
(comme Yves Morieux que je cite en introduction).

Ce livre a été écrit à partir de deux convictions fortes, que j’ai déjà exprimées mais qui méritent d’être rappelée :

  • Le modèle du « management scientifique » de F. Taylor a atteint ses limites au 21e siècle et il convient de le revisiter.
  • Les approches « Entreprise 2.0 » et « Lean management » sont profondément différentes, mais elles ont des points communs intéressants et constituent deux réponses à la question précédente.

Le management scientifique est une approche qui « projette l’œuvre collective » sur les individus, en s’appuyant sur les célèbres « décomposition » et « spécialisation ». J’ai déjà mentionné que cette approche se heurtait à la croissance des flux de communications qui deviennent nécessaire lorsque l’objet ou le service à produire devient complexe. Mais le point est plus général : le « management scientifique » évite le « travail en groupe » par la décomposition, et évite le travail « autonome ou créatif » en séparant la fonction « méthode » de la fonction « réalisation ».

Les points communs du lean et du 2.0 sont précisément articulés autour de ce thème et sont donc des réponses à la complexité croissante :

  • Ces deux approches s’appuient sur la collaboration et le travail d’équipe, en revendiquant le besoin d’utiliser « le cerveau de tous ».
  • Elles proposent des méthodes pour développer les connaissances et l’apprentissage (la capacité à acquérir des nouveaux champs de compétences, selon le principe du « double loop learning »).
  • Ces deux approches privilégient le travail sur le terrain et l’analyse des signaux faibles par opposition à l’agrégation (regarder le monde au travers de synthèses et de moyennes) et le déport de l’analyse, confiée aux experts ou aux managers.

On pourrait penser que ce livre suit une trajectoire simple : montrer l’intérêt de l’Entreprise 2.0, montrer celui du lean management, et tisser quelques fils entre les deux, souligner les convergences sur les objectifs des deux approches, et démontrer que ces deux approches se renforcent mutuellement. Même si c’est, de fait, ce que contient le livre, il me semble à la réflexion qu’il y a un sens plus profond. Le sujet central, je l’ai dit plus haut, est l’augmentation de la complexité et par conséquent le besoin pour les entreprises d’apprendre à maîtriser des systèmes complexes. La réponse centrale est le besoin d’apprendre à travailler en groupe, « pour de vrai ». Pour caricaturer, la destinée de l’Homme au 21e siècle et d’apprendre à travailler « comme une fourmi » (dans le sens de la coopération et collaboration à une œuvre collective) et d’y trouver du plaisir. On retrouve cette idée dans la sublime vidéo de « Sir Ken Robinson » sur le besoin de changer le paradigme de l’éducation. Je parle beaucoup d’innovation, de créativité et de résolution de problème dans mon livre (le sous-titre est « innover par la collaboration et le lean management »), mais le propos sur la nature collective et collaborative du travail au 21e siècle est beaucoup plus général (et l’automatisation des tâches, qui n’est pas prête de s’arrêter, ne fera que renforcer ce propos).

J’ai beaucoup parlé dans ce blog de ma conviction que l’Entreprise 2.0 s’imposera car elle apporte des solutions concrètes à des problèmes « 1.0 » de flux de communication qui ne feront que s’amplifier dans le futur. Je n’y reviens pas ici, c’est une part également importante du livre, comme ma tentative pour expliquer les « principes actifs » du lean.

Ma conclusion après avoir terminé ce travail est triple :

  • « Lean Entreprise 2.0 » est le nouveau modèle de l’entreprise du 21e siècle, parce que les besoins du 21e siècle (rapidité, agilité, innovation) l’exigent, et que ces besoins vont apparaître comme de plus en plus difficiles à satisfaire devant la montée de la complexité.
  • La transformation vers ce nouveau modèle est une « révolution lente qui prend du temps », puisqu’elle nécessite un profond changement de culture. Il y a une échelle de maturité à respecter, et on ne peut pas brûler les étapes sans risque de « brûler les hommes ».
  • C’est en revanche une approche qui donne du sens et revalorise le travail, en particulier le travail concret des opérateurs, « le travail sur le terrain ». C’est également une approche fondée sur l’apprentissage (le développement des personnes) et les relations en entre collaborateurs (ce qui réalise les personnes).

mardi, février 22, 2011

Efficacité des réunions : plus que de la latence !

Je prépare un petit exposé scientifique sur les réseaux d’affiliation (cf. les CMS = « système réunion »), et j’en ai profité pour faire quelques nouvelles simulations. Le lecteur de ce blog aura remarqué que je m’intéresse particulièrement à la latence, c'est-à-dire au temps qu’il faut pour propager une nouvelle information. Réduire la latence est l’arme principale pour augmenter l’agilité, c’est un thème que j’ai abondamment développé, et que vous retrouverez dans mon prochain livre.

Lorsqu’on s’intéresse au

cheminement de l’information au travers d’une série de réunions, on peut distinguer deux cas :

  • Le cas d’une information compacte, qui se propage « comme un signal ». Elle est facile à comprendre, il suffit d’avoir été présent à la réunion pour « être au courant ». C’est le modèle que j’utilise pour la propagation des informations urgente, dont la métrique principale d’efficacité est précisément la latence. De façon caricaturale, le meilleur système de réunion est le « town-meeting » quotidien, une réunion courte et fréquente qui permet à chacun d’entendre les informations vitales. Il n’y a pas de contrainte sur le nombre de participants s’il s’agit seulement de « pousser un signal ».
  • Le cas d’une information complexe, difficile à comprendre, et qui nécessite un échange (avec reformulation). Dans ce cas, on comprend facilement qu’un trop grand nombre de participants nuit à la qualité de l’échange. Les auditeurs n’ont plus le temps, ou n’osent pas, poser des questions, le message est rapidement déformé. Pour ce type de transmission d’information, ce qui nous intéresse est la capacité de la réunion à héberger desconversations, c’est-à-dire des échanges dans les deux sens.

Je travaille sur une nouvelle métrique, celle de « flow throughput » (FT), qui mesure la capacité à transporter de l’information, d’une personne à une autre, au travers de conversations. Cette métrique, dans un souci de simplification, suppose que le temps de la réunion est uniformément réparti entre les participants, chacun ayant accès à la même fraction de « temps de conversation ». Le « flow throughput » est la recherche de la chaine de flux maximal dans le graphe des réunions. C’est une grandeur qu’il est facile de calculer avec un algorithme issu de la théorie des graphes. On calcule le flux maximal entre deux points, puis on prend une moyenne pour l’ensemble des couples pour caractériser le « système réunion ». Je n’ai pas encore terminé toutes mes expériences ni la rédaction de mon exposé, mais il me semble que je tiens ici une nouvelle métrique qui remplace avantageusement celle que j’utilisais jusque là, celle du débit total (throughput). C’est en cherchant à maximiser le FT qu’on évite les réunions avec trop de participants (mais que l’on continue à privilégier les réunions fréquentes).

Est-ce que cela signifie qu’on peut étudier la performance d’un système réunion avec deux métriques ? Absolument pas ! Reprenant les termes de mon confrère Dominique Wolton, j’ai déjà écrit que la communication est bien plus qu’un transfert d’information, c’est un processus de synchronisation de ce que chacun perçoit de la représentation du monde de l’autre. Essayons de l’expliciter avec un schéma :

Ce que ce schéma exprime, c’est que la communication est un processus, par lequel l’acteur A cherche à ce que B construise dans son propre modèle mental (S_B) un nouvel objet qui représente la même information que ce que A possède dans son modèle à lui (S_A), et qu’il veut partager. Il ne s’agit pas de transporter de l’information (première flèche), mais bien de s’assurer par différentes formes d’allers-retours (les feedbacks qui nécessitent de la bandwidth), que ce que B « comprend » est bien ce que A « signifie ».


On l’a déjà dit, c’est tout l’intérêt d’un contact face-à-face, qui nous donne des multiples moyens de transmettre et de vérifier ces information (l’intonation, l’expression du visage, la posture corporelle, etc.). Le point fixe représenté sur le schéma est atteint lorsque A est convaincu que B a « compris », ou par lassitude (non-convergence des allers-retours, souvent parce que les schémas mentaux sont trop différents).

L’intérêt de ce petit schéma est de couvrir les différentes dimensions de la communication :

  • Le transfert d’information I, la partie mécanique de la communication. C’est elle que l’on mesure en termes de latence ou de débit.
  • L’aspect sémantique de la communication, c’est-à-dire la double transformation (encodage) qui permet à A et B de partager en utilisant un « modèle pivot » (en termes informatiques - on peut simplement parler de culture commune). Sans une langue et une culture commune, la performance mécanique n’a pas de sens.
  • L’aspect dynamique, qui décrit le protocole utilisé par A et B pour converger, pour s’assurer que l’information qui est transmise est bien comprise de la même façon de part et d’autre.

Notons que l’on retrouve également dans ce schéma la dimension de redondance : Si B « sait déjà » ce que A lui dit, quel est l’intérêt de la communication ? Celui de faire savoir que « A sait » … mais si B sait que A sait ? etc. Je vais m’abstenir de rentrer dans ce niveau de subtilité ici, même si je suis persuadé que le fait de « parler pour ne rien dire » est une cause flagrante de perte d’efficacité dans les entreprises.

Ce qui m’intéresse dans cette classification, c’est qu’elle s’applique parfaitement aux réunions. On peut décomposer les réunions sur trois plans, à la manière de Bolman et Deal qui décompose le management sur les plans structurels, politiques, « ressources humaines » et symboliques. Je propose logiquement les trois plans suivants :

  1. Le plan structurel touche le réseau social des communications. C’est la partie la plus facile à décrire, à modéliser et à mesurer. Dans le cas de la communication électronique telle que l’email, la trace contient l’essentiel de la communication. En ce qui concerne les réunions, la structure est définie par un réseau d’affiliation, étiqueté par les informations temporelles (fréquences et dates des réunions). Même si les consultants en organisation utilisent depuis longtemps le « système réunion » comme un outil d’optimisation de l’organisation, il reste beaucoup à faire pour caractériser les propriétés « structurelles » de tels réseaux.
  2. Le plan sémantique couvre le sens des informations véhiculées pendant les réunions, ainsi que les modèles propres aux différents participants (la façon dont ils peuvent s’approprier ce sens). Une grande partie des « guides de bonne conduite de réunion » qui s’assure que les participants disposent des documents, que des comptes-rendus sont rédigés, etc., a pour but d’assurer une culture commune essentielle à la communication efficace. L’objet central du plan sémantique est le langage des participants.
  3. Le plan dynamique décrit le protocole de gestion du temps de parole pendant la réunion et couvre des aspects tels que la dynamique de groupe (pour la formation d’un consensus par exemple). L’autre grande partie des « guides de bonne conduite de réunion », en particulier ce qui touche au rôle de l’animateur, a pour objectif de mettre en valeur des protocoles efficaces (selon le type de réunion). Beaucoup d’articles, qui traitent de réunions et paraissent dans des revues de psychologie ou sociologie, portent sur l’aspect dynamique des réunions. L’objet central de l’étude dynamique est le comportement des participants.

L’intérêt de cette classification est de pouvoir situer le travail que j’accompli, avec les différents outils de simulation (et outils mathématiques), clairement dans le plan structurel. Je n’ai pas d’ambition dans les plans sémantiques et dynamiques, je suis donc bien incapable de formuler une « théorie des réunions ». En revanche, j’ai la conviction de plus en plus forte, au cours des années, que la dimension structurelle se prête bien à l’analyse et que la théorie des « réseaux sociaux d’entreprise » ne demande qu’à être inventée. Ce sera d’ailleurs le sujet d’un exposé que je prépare pour une séance conjointe de l’Académie des Sciences et de l’Académie des Technologies.