samedi, décembre 08, 2007

Le Lean c'est quoi ?

Je vais revenir aujourd’hui sur le « lean management/manufacturing » pour deux raisons.
D’une part, parce que je réalise que plusieurs de mes lecteurs n’ont pas une idée claire de quoi il s’agit, alors que ce thème va être mis à l’honneur dans mes messages pour les deux ans à venir, en attendant que je sois capable d’écrire un livre.
D’autre part, parce que j’ai eu plusieurs fois l’occasion en l’espace d’un mois de discuter avec des « pratiquants » du Lean. Il n’est pas facile de résumer tous ces « signaux faibles » mais ils se combinent et renforce mon intuition que le « lean » est une révolution en marche. Je parle ici bien sur du lean dans le monde des services, dans le tertiaire. Le succès du lean dans le monde de la production n’est plus à démontrer et on ne peut plus ouvrir un magazine sans entendre parler de l’approche Toyota (ce que je fais depuis un certain temps dans ce blog mais je vais arrêter pour ne pas lasser).

Parmi les messages communs aux différents intervenants que j’ai eu le plaisir d’écouter (je ne suis pas très à l’aise pour citer des personnes privées sur un blog), je relève deux messages fondamentaux :
  1. Le lean, cela ne se raconte pas, ca se pratique ! Lorsque ce message vient de quelqu’un qui a des années d’expérience, cela pousse à la prudence. C’est pour cela que je souhaite aborder le lean par la simulation, comme je l’ai fait pour le système d’information.
  2. Le lean, cela n’est pas intuitif, il faut pratiquer et voir pour comprendre. J’ai déjà insisté maintes fois sur l’aspect non intuitif. C’est pour cela qu’il manque encore, à mon avis, des textes introductifs qui soient moins « enthousiastes » que les « textbooks » classiques.

Maintenant que j’ai posé le décor, je vais néanmoins tenter de donner des bribes d’explications (pourquoi et comment cela marche). Les propos précédents doivent m’inciter à la prudence (il me faudra plusieurs tentative pour trouver les mots justes et les images pertinentes), ainsi que le lecteur (ne pas se décourager si la suite semble obscure …)

Qu’est-ce que le lean ? C’est la recherche de deux caractéristiques :

  • Travailler en flux tendu, sans attente, de telle sorte que le ratio temps travaillé / temps total soit maximal.
  • Eliminer tout ce qui ne produit pas de valeur pour le client, de telle sorte que le ratio temps utile / temps travaillé soit maximal.

Ces deux caractéristiques, différentes, se combinent et se renforcent pour produire des processus qui sont :

  • Agiles et flexibles
  • Tendus (rapides et sans-coutures)
  • Orientés-clients

Jusque là, nous sommes dans le « wishful thinking » et on ne voit pas le moteur de progrès. Voici trois petits coups d’œil de trois points de vue différents :

(1) Vision file d’attente : le principe du lean est de travailler dans la partie linéaire de la courbe qui décrit le temps de réponse en fonction de la charge de travail. Si l’on décrit le comportement d’un agent qui exécute des tâches dans une file d’attente soumis à un flux d’arrivée aléatoire, sous les bonnes hypothèses classiques, le temps de réponse ressemble à une hyperbole dont l’asymptote infinie est atteinte pour un taux de charge de 100%. Un des moteurs du lean est de rester dans la partie « raisonnable de la courbe de charge ». Cela signifie précisément que les files d’attentes servent à gérer les exceptions et non pas à assurer un travail permanent à chaque agent. Le bénéfice obtenu est que le comportement des agents devient pilotable (précisément en fonction des besoins du client).


(2) Vision systémique : travailler en mode pull (flux tendu), ce qui implique de rester dans la partie « linéaire » du comportement du système multi-agents, et d’éviter le comportement chaotique (non-linéaire) qui se produit lorsque les files d’attentes deviennent trop remplies. Le flux tendu, qui est un pilotage par l’aval du processus (et donc qui se prête naturellement à l’orientation client) suppose un fonctionnement compréhensible et prédictible du système. Autrement dit, c’est le prolongement du point précédent (a) lorsqu’on l’étend à un système : il est possible de piloter le comportement d’un réseau d’agents en mode sous-critique (linéaire), il est illusoire de vouloir piloter le même réseau en mode critique (sur-chargé).


(3) Vision Inventaire : éviter les inventaires intermédiaires qui sont facteurs de non-agilité. Chaque pile de travail en attente est un inventaire. La théorie économique classique lui attribue un coût d’immobilisation de stock. Le génie de Taichi Ohno est d’avoir compris qu’il y a également un coût d’inertie, comme un navire très chargé qui met beaucoup de temps à tourner. Dès qu’on quitte un monde idéal et virtuel où les commandes arrivent et se répètent de façon régulière, le bénéfice de l’agilité, par rapport à des changements de besoin des clients, dépasse rapidement l’optimisation de l’utilisation de tel ou tel agent (machine dans le cas industriel) qui justifiait une file d’attente en premier lieu.

Ces trois coups d’œil donnent pleinement le sens du mot « lean ». En revanche, il faut un certain temps pour comprendre ce que je viens d’écrire … en attendant des simulations … ou en attendant d’en faire l’expérience. Je reviendrai dans des prochains messages pour illustrer ces idées dans le cas du « knowledge worker ».

Quels sont les outils du lean (vision empruntée à l’approche Toyota) ? Voici une petite liste (incomplète) pour se fixer les idées. Bien sûr, chaque point mériterait une page …

  • Aller voir de ses yeux : le premier pilier de l’approche Toyota (Genchi Genbutsu). On retrouve l’intuition du premier commentaire : pour comprendre et optimiser un processus il faut le vivre. Il faut voir la circulation du flux pour détecter les optimisations (cf. la suite).
  • Analyse de la valeur – détection du muda : tout ce qui n’apporte pas de valeur pour le client. Ces deux aspects (aller voir et analyse de la valeur) sont intimement liés. La détection du muda (la traduction de gaspillage a une trop forte connotation négative) demande de la pratique et de l'expérience. Le muda prend des formes multiples, qui dépendent du métier.
  • Optimiser le processus autour du « single piece flow » pour éviter les ruptures et alléger (simplification en fonction de l’analyse précédente). Il existe de nombreuses techniques pour réaliser cette fluidification (c’est là qu’on réalise que le lean, c’est une discipline, pas une recette de cuisine). Par exemple, on va logiquement retrouver la promotion de la polyvalence opératoire (très judicieux dans le cadre informatique). Plus précisément, on va éviter que les ruptures dans le processus coïncident avec les ruptures de compétences.
    Inutile de croire que cette étape d’optimisation est simple : il faut faire des essais/erreurs, c’est pour cela que le kaizen (optimisation continue) est nécessaire. La pratique du kaizen conduit au besoin de mesure, ce qui amène à marier le lean avec « 6sigma ». Mais point n’est forcément besoin de mesure sophistiquée pour trouver de la valeur dans le kaizen.
  • Une fois que nous avons fluidifié le processus, il faut introduire le contrôle en flux tendus, c’est-à-dire passer du « push » au « pull ». Les avantages du flux tendus sont nombreux (réactivité, satisfaction client, ...) mais attention à ne pas se tromper d'ordre : il faut simplifier, optimiser et dé-congestionner (cf. le point sur les files d'attentes) avant de passer au flux tendu. Sinon, bon courage ... la gestion du flux tendu d'un réseau chaotique est une prouesse ... et un casse-tête.
  • Introduire des outils visuels (le kanban) -. Comme le dit très justement McKinsey, "le lean est une technique de management visuelle". Je reparlerai du Kanban dans un prochain message. Dans un cadre de services informatiques, le kanban peut se décliner sous forme de grands tableaux de plannings, sur lesquels on ajuste des post-its. Il ne s’agit pas forcément d’outils sophistiqués, après tout le kanban d’origine est une fiche en carton…
  • Lisser la charge : un autre « insight » de la théorie des réseaux de files d’attente !
    cf. les 3 petits coups d’œil : il est beaucoup plus facile de piloter, et de manager de façon optimale, sous un flux régulier. Bien sûr, j’ai dit un peu plus tôt que l’intérêt d’un processus lean est de supporter les aléas … il n’en reste pas moins que le lissage est un multiplicateur d’efficacité, précisément parce qu’il permet le kaizen (qui a besoin de répétitivité pour fonctionner).
  • Standardiser les taches : les tâches élémentaires qui constituent les processus doivent être exécutée de façon semblable. C’est d’une part une façon d’homogénéiser les pratiques (le fameux partage des bonnes pratiques : permettre à tous de bénéficier de l’inventivité et la pertinence de chacun. A titre d’exemple, les études de productivité dans le back-office des banques montrent qu’il y a un facteur 3 entre le premier et le troisième quartile en terme de productivité. C’est également un facteur de démultiplication d’efficacité pour le kaizen (chacun pourrait faire son « petit kaizen personnel » mais un « kaizen collectif » est plus efficace).


Pour ceux d’entre vous qui s’intéressent à l’application du lean dans le monde des systèmes d’information, j’ai lu un excellent article de la HBR qui parle de la mise en œuvre du lean chez Wipro : « Lean at Wipro Technologies », de D. M. Upton et B. R. Staats. Wipro, une des SSII leaders en Inde, applique le lean aux processus définis par CMMI. Très logiquement, cet article explique comment traduire les concepts de la précédente liste dans le contexte du développement de projets. Par exemple, le « waste » (muda) devient : surproduction, surcompétence, attente, overprocessing, rework, déplacements, inventory.
J’y reviendrai un autre jour. Dans le même ordre d’idée, un des exposés mentionné en introduction était donné par McKinsey. McKinsey (allez voir
http://www.evolvingexcellence.com/blog/2007/08/mckinsey-on-lea.html ou http://www.evolvingexcellence.com/blog/2007/08/mckinsey-on-l-2.html) a fait plusieurs expériences, avec ses clients, d’application du lean aux processus ITIL (production de services informatiques). Pour donner un ordre de grandeur des résultats très positifs qui ont été obtenus, l’ordre de grandeur est que 50% du muda est éliminable, ce qui se traduit par une amélioration de productivité de 20 à 30% (dont 30% à 50% sont des gains en temps/ressource humaine).
Pour finir, j’en profite pour faire un peu de publicité pour le séminaire de l’ENST, mentionné par Pierre Pezziardi dans un de ses commentaires. Les quatre exposés qui sont présentés apportent des illustrations claires de ce qui vient d’être dit et présentent également des aspects dont j’ai peu parlé (comme l’importance – et la difficulté dans la culture française – de la standardisation).

lundi, novembre 12, 2007

le LEMM mode d'emploi (Lean E-Mail Management)

Je vais commencer et répondre à différents mails que j’ai reçus avec une anecdote. Je rentre d’un week-end étendu à Madrid, où j’ai passé une partie importante de mon temps à faire la queue devant des musées. Des queues plus ou moins longue (jusqu’à deux heures) et pas toujours efficaces (j’ai du faire trois fois la queue avant de pouvoir rentrer dans le monastère royal de Las Descalzas Reales). Pendant que je faisais la queue, je lisais mon livre du moment, « Lean Solutions » de J. P. Womack et D. T. Jones. Là où l’histoire se corse, c’est que ce livre traite précisément (entre autre) des queues que les entreprises infligent à leurs clients. La théorie du livre est que, puisque l’entreprise finit par traiter ses clients, ces queues sont inutiles.
Je l’ai déjà dit dans ce blog, les apôtres du « lean thinking » ont la fâcheuse habitude de simplifier leur raisonnement, pour nous faire croire que l’approche lean est une évidence. En l’occurrence, la queue devant le magasin ou le musée n’est pas un dommage collatéral d’une mauvaise organisation, c’est un mécanisme auto-adaptatif de lissage de charge et de sélection. Plus la queue est longue, plus le filtre est efficace : ne reste dans la queue que ceux qui sont motivés (pour faire réparer leur appareil … ou pour visiter l’exposition). La queue s’allonge jusqu’à ce que le taux de filtrage corresponde au débit utile du processus (guichet d’entée du musée, taux de prise en charge du SAV, etc.). Ce mécanisme de régulation a des tas de défauts (que nous, clients, sommes bien placés pour comprendre) mais il a aussi ses bénéfices.
Ceci décrit le cas simple d’une queue « FCFS » (premier arrivé, premier servi/sorti). Dans le cas où l’on intègre la gestion des priorités (la sortie se fait en fonction de la pertinence), la longue queue devient une « colonne de distillation », une « gare de triage ». Bref, cette longue queue (et ceci s’applique bien sûr aux boites aux lettres) devient un outil auto-adaptatif de régulation et de priorisation.
Ceci est-il en contradiction avec le message précédent ? Non, car les simulations, qui montrent l’intérêt de l’approche lean, ont été faites avec toutes sortes d’algorithmes de traitement de la pile de messages. Bien sur, les défauts des « longues piles » sont plus criants avec une approche FCFS qu’avec une approche priorisée, mais la valeur de l’approche lean persiste dans tous les cas de figure.

Je vais maintenant revenir à la question avec laquelle j’ai terminé le dernier message : comment implémenter une approche LEMM ?

A - Réduire les mails

La première idée qui vient à l’idée pour inscrire son entreprise dans une approche LEMM est de réduire le flux de mail. C’est également l’approche la plus complexe pour de multiples raisons, dont une partie est traitée dans mon dernier livre.
Commençons par lister quelques une des idées de réductions de flux :
  • casser l’habitude : journée sans mail, etc.
  • créer un frein à l’émission (cf. chapitre 5 de mon livre) : règles sur la forme des mails, règles de « bon usage », de « bonne conduite », etc.
  • créer un frein par l’inefficacité : ne pas lire ses mails … une méthode très efficace puisqu’elle modifie la culture d’entreprise (dès lors qu’elle est adoptée par un nombre suffisant d’acteurs) mais inefficace également, puisqu’elle prive un puissant canal de communication de sa pertinence. Tout compte fait, c’est l’approche de la queue devant les musées …
  • promouvoir les canaux alternatifs : créer les lieux de rencontre, utiliser l’IM, etc.

J’ai commencé à comprendre l’importance de la question du flux des mails il y a trois ans, en discutant avec Xavier Caumont . Cette conviction s’est renforcée doucement pendant que je travaillais sur le modèle SIFOA. Elle est maintenant très forte, à la fois parce que j’ai compris l’importance du lean dans les processus tertiaire et à cause des simulations, comme je l’ai expliqué dans le mail précédent. Parce que j’ai acquis la conviction du LEMM, je suis favorable à ce qui réduit le flux de mail. Malheureusement, cette conviction n’est pas simple à expliquer. Pas plus que ne le sont les principes de l’organisation du travail que prône Xavier Caumont.
Cela implique que l’implémentation d’un programme de réduction des flux de mails est très difficile à mettre en place : l’utilisation du mail est encore perçue comme un acte et une responsabilité individuelle (cf. commentaire de J.P. Corniou). Pour qu’un ensemble d’acteurs adoptent des règles contraignantes, il faudrait qu’elles s’approprient les principes sous-jacents. Comme, d’une part ces principes ne sont pas intuitifs et que d’autre part il existe une latence dans les bénéfices perçus (les avantages que la communauté tire d’un flux réduit de mail ne sont perceptible que dans la durée, une fois qu’une réduction significative est atteinte), je suis sceptique dans la capacité à conduire le changement avec cette approche.
Cela ne signifie nullement qu’il faille abandonner toutes les initiatives citées plus haut, mais il faut les vendre sur leurs propres mérites, et ne pas invoquer un principe de LEMM :)


B - séparer les flux – ne pas utiliser le mail pour tout

Cette solution s’impose logiquement si l’on part de la constatation de l’état encombré des boîtes aux lettres, combiné avec l’observation précédente qu’il est difficile d’imposer une logique externe sur un acte « aussi personnel » que le traitement de son courrier électronique

L’approche de séparation consiste à utiliser un canal différent pour les messages qui portent tout ou partie des processus collaboratifs. Le plus classique est d’utiliser un portail spécialisé pour les messages de signalisation liés aux processus métiers, que ce soit un outil de partage de tâches, de validation de document partagé ou de workflow. C’est d’ailleurs, fort logiquement, le premier avantage mis en avant par les promoteurs des outils collaboratifs : ils permettent de réduire les mails !
Ce sujet méritera un développement séparé. Pour simplifier, je suis à 100% en faveur de cette approche, mais elle ne résout pas complètement le problème pour deux raisons :

  • l’utilisation d’un portail collaboratif traite partiellement la question de la priorisation et du classement (cf. 5S), mais elle ne force pas nécessairement une approche « pull » (cf. 3e partie).
  • la question reste posée pour les mails qui « restent dans les boîtes aux lettres ». Seuls les emails correspondant à des tâches précises, par rapport à un processus collaboratif fixé, peuvent migrer depuis la boite aux lettres vers un tel outil. Il reste tous les emails informels qui peuvent néanmoins être importants et urgents.

Pour les amateurs du « Toyota Way », cette problématique ressemble étrangement à une problématique de rangement, et on se prend à imaginer les « 5S » du KW. Les 5S sont un principe actif de l’approche Toyota, une méthode réellement efficace. Ils viennent de Seiri,
Seiton, Seiso, Seiketsu et Shitsuke
, que l'on traduit approximativement en Français par : Ordonner, Ranger, Dépoussiérer, Rendre évident, Etre rigoureux.

Je reviendrai une autre fois sur ce sujet (5SKW), qui me semble également puissant.


C - inverser le sens du flux – le KANBAN du mail

C’est l’approche qui m’intéresse le plus, mais sur laquelle je suis le moins mûr. Ce message est donc le premier d’une série …
Commençons par rappeler le principe du kanban : il s’agit d’un dispositif visuel qui permet le fonctionnement en « pull » (flux tendus) puisqu’il montre aux acteurs en amont quels sont les besoins en aval. Historiquement, le kanban est une fiche cartonnée, visible de tous, qui indique les besoins de chaque poste de production (pour ses « fournisseurs »). Le principe général (lire l’article de Wikipedia, puis, bien sûr, « The Toyota Way ») est d’éviter la surproduction et les stocks intermédiaires en liant la production amont aux besoins en aval de façon « mécanique ».
Est-ce raisonnable de vouloir appliquer le KANBAN au KW (knowledge worker) ?
Le KW utilise des processus dynamiques, dont les livrables sont variables, et qui fait une part forte à l’innovation. De plus, pour chaque tâche qui constitue le processus, la créativité propre à l’activité intellectuelle induit une forte variabilité (temps, energie, résultat). Il ne peut donc pas s’agir d’une simple transposition. D’ailleurs tous les articles sur le kanban insistent sur la nature régulière de l’activité. En revanche, le principe actif du kanban est pertinent dans le monde du KW : il faut en effet éviter d’envoyer une information qui ne sera pas traitée faute de temps (et qui donc s’accumule sous une forme –email- ou une autre).
Le kanban du KW (qui reste à inventer) est donc un mécanisme avec un double objectif :
  1. Informer en mode pull le KW qui produit l’information de ce qui va intéresser celui qui traite cette information. C’est ici qu’il faut introduire une souplesse qui ne bride pas la créativité.
  2. Signaler au « producteur » que le « consommateur » dispose du temps (et des ressources) pour traiter cette information. C’est ce second point qui est le plus intéressant pour installer le LEMM.

Je poursuivrai cette analogie dans un prochain message, en particulier en détaillant un protocole qui pourrait s’appliquer pour le processus fort simple de production/relecture/validation d’un document. Le kanban associé est alors simplement un agenda partagé, ce qui facilité son implémentation.

Pour résumer, je n’ai pas vraiment la solution à la question que je me pose. En revanche, je vais travailler sur la troisième approche dans mon environnement professionnel, car je suis persuadé qu’elle recèle une véritable valeur d’efficacité pour les entreprises. J’emploi ce terme de « receler » car je pense qu’il y a un travail d’orpailleur pour aller chercher les principes actifs de l’approche en flux tendu pour des organisations composées de « knowledge workers ». Autrement dit, il faudra du temps et différentes expérimentation pour trouver des bonnes façons de traduire le principe du kanban dans des processus dynamiques, innovants et faiblement formalisés.

jeudi, novembre 01, 2007

Le "Lean Knowledge Worker"

Ma série d'expériences sur le système d'information (SI) a déclenché une réflexion sur l'analogie avec le modèle des KW (knowledge workers, travailleurs de la société de la connaissance en français) connectés par l'email (courrier électronique). Ce message est le premier d'une série dans laquelle je vais développer le concept du "Lean Knowledge Worker". Je vais donc commencer par m'intéresser aux boites de réception du courrier électronique, et plus précisément à la pile de messages en attente de traitement/lecture. Une de thèses, partagée avec de nombreux auteurs et expliquée dans mon livre, est qu'il faut minimiser la taille de cette pile. Commençons tout de suite par remarquer que cette taille de pile est la somme d'une quantité qui est liée à la latence (temps entre l'émission et la lecture) et une quantité qui est liée à la différence à la vitesse de traitement et le flux d'arrivée.

Ce sujet s'inscrit complètement dans le thème SIFOA, et méritera une simulation semblable à celle que j'ai faite pour le système d'information (plus tard ! cet été probablement), mais je vais pour l'instant supposer que l'analogie est pertinente et développer une "théorie du lean" appliquée au KR. Deux raisons pour le faire : (a) tous les spécialistes du lean, comme Toyota explique que le lean s'applique parfaitement au travail de bureau dans le monde des services (b) la modélisation du système d'information en tant qu'ensemble de composants qui s'échangent des messages au travers de files d'attente est vraiment pertinente !

Cette analogie nous permet de poser le principe suivant: La situation dans laquelle la pile de message contient plus que le "buffer" lié à l'asynchronisme et à la latence doit être exceptionnelle, en situation nominale, la boite ne contient que des messages récents.
Cette affirmation peut sembler brutale, et elle est en tout cas très différente de la réalité dans la quasi-totalité des entreprises. On remarquera que c'était vrai pour les systèmes d'information : le principe selon lequel le bon dimensionnement est celui qui permet d'avoir des files d'attentes quasi-vides en dehors des crises est également "étonnant" et différent de la réalité des salles d'exploitation.

Le principe du "lean management" (LM) nous explique une partie de cette règle: le temps d'attente dans la pile de message est un gaspillage (muda). Comme le remarquait Xavier Caumont, si vous allez de toute façon répondre à une personne, pourquoi la faire attendre 10 jours et ne pas répondre tout de suite ? De toute façon vous passerez le même temps de traitement…
On voit donc poindre une approche: traiter tout de suite les messages dont le temps de traitement est faible. Les adeptes de la priorisation (ce que nous sommes tous plus ou moins) vont répondre que la pratique nous enseigne à répondre en fonction de la priorité, et non pas en fonction de l'inverse de la complexité (note pour les informaticiens: la similitude avec mes recherches sur les méthodes d'ordonnancement de messages pour les infrastructures est véritablement passionnante). La pile de mail en attente devient une « colonne de distillation » dans laquelle les mails murissent en fonction de leur priorité.

Ce que les expérimentations sur le SI nous enseignent, c’est qu’il y a deux autres graves défauts qui sont les conséquences de piles de messages trop longues :
  • La capacité de réaction aux changements est réduite, l’entreprise devient moins agile (l’en-cours devient semblable au poids du proverbial paquebot qu’il est difficile de faire tourner).
  • Le pilotage de la qualité de service devient très difficile ! C’est la conclusion la plus spectaculaire de mon exposé au CAL’07. En fait, nous le savons déjà : dans une entreprise dans laquelle les KR sont surchargés par des mails en attente, il est très difficile de prédire combien de temps il faudra pour traiter une question, pour approuver un document, pour exécuter un processus collaboratif.

On peut donc exprimer le principe du Lean Management de façon encore plus directe : la taille variable des boîtes de réceptions ne doit servir que pour gérer les situations exceptionnelles (crises, bulles de sur-activité, indisponibilité provisoire).
Nous allons définir un "nouveau sigle/principe": le LEMM est l'approche de management qui permet à une entreprise de fonctionner en respectant ce principe (Lean Electronic Mail Management).

Le LEMM est véritablement une pratique révolutionnaire. Il consiste à reconnaître la valeur de l’asynchronisme du courrier électronique comme un outil de découplage temporel permettant à des KR de travailler sur des créneaux horaires différents, tout en refusant la facilité qui est de faire de l’asynchronisme une machine à lisser la charge.

Les enjeux sont fondamentaux : agilité de l’entreprise, réduction des temps de cycle des processus (réactivité) et meilleure qualité de service. On pourrait rajouter une meilleure orientation client, puisque toute la puissance du raisonnement du LM s’applique. Qui n’a jamais constaté que lorsqu’on répond à un email trop tard, le plus souvent la question a changé et la réponse n’est plus pertinente ?
Comment mettre le LEMM en pratique ? Ce sera le sujet d’un prochain message …

dimanche, septembre 23, 2007

Taiichi Ohno, le maitre de l'efficacité !

Cela fait un bout de temps que je n'ai rien écrit. En fait je suis pris depuis deux mois par deux tâches:
  • traduire mon dernier livre en Anglais,
  • préparer un explosé pour CAL (Colloque d'Automne de l'X) sur les systèmes complexes.
Pour cet exposé, j'ai décidé de reprendre mes expériences sur l'OAI (cf. ma home page, ce n'est pas le sujet de ce blog). J'utilise un simulateur de système d'information, qui est très riche (j'avais du temps pendant l'été 2003 !) et qui reproduit l'exécution des processus métiers. Il m'est possible de définir différents processus, différentes priorités et d'observer le respect, ou le non-respect des SLA (contrats sur les performances du point de vue processus).

Le lecteur observateur aura remarqué la similitude avec mon simulateur d'entreprise ... moi aussi. Je me suis dit que j'allais profiter de cette campagne de mesures pour tester certaines hypothèses du "lean management". Le "Lean manufacturing" est du à Taiichi Ohno (1912-1990), un des dirigeants de Toyota qui a révolutionné l'organisation des usines. Je ne vais pas m'étendre aujourd'hui ... je vous renvoie aux livres de Jeffrey Liker (ex: The Toyota Way) ou ceux de James Womack (ex: Lean Thinking). Le point qui m'intéresse est le suivant: le principe lean, du point de vue de l'optimisation des processus, est qu'il faut réduire le lead time en éliminant les temps morts et tâches inutile. Cela se traduit facilement en terme de SI: augmenter le ratio (somme des temps de traitement / temps total de traitement du processus), que je désignerais par "lean ratio".
L'intuition géniale de Taiichi Ohno est d'avoir compris qu'un processus "tendu" est beaucoup plus résistant aux aléas et plus flexible qu'un processus "optimisé du point de vue des ressources".

Cela n'a rien d'évident au premier abord. Je suis très dubitatif devant tous les consultants qui vous parlent de Toyota ou de Lean Six Sigma comme si c'était évident. En fait, cette optimisation du "lead time" se fait au détriment de l'optimisation économique des ressources. C'est donc l'inverse de ce qu'on apprend en cours de recherche opérationnelle sur l'optimisation des taux d'utilisation des machines. Il faut un peu de réflexion personnelle, ou d'expérience, pour comprendre l'intérêt et le fonctionnement du lean.

Bref, l'idée d'utiliser le simulateur de SI pour faire une validation expérimentale m'a semblé interessante. Je ferai un compte-rendu après avoir fait mon exposé, et après avoir collecté l'ensemble des résultats. J'ai comparé différentes situations, avec les mêmes niveaux d'exigences statitiques (SLA respecté dans 90% des cas), mais en variant entre deux extrêmes:

  • des SLA faciles avec des ressources optimisées (taux d'utilisation des serveurs entre 80 et 90%, Lean ratio de l'ordre de 10%)
  • des SLA plus stricts avec des ressources plus amples (taux d'utilisation de l'ordre de 50% et lean ratio de l'ordre de 50%)

L'approche lean est beaucoup plus robuste aux aléas. Je m'y attendais, mais pas avec l'ampleur que j'obtiens dans mes résultats numériques ! C'est spectaculaire ...
Si l'on regarde de près, c'est assez logique. La distribution statistiques des dispersions suit une loi qui est d'autant plus complexe qu'il y a du "jeu" (asynchronisme) dans le système. Dès que les systèmes sont couplés avec des files d'attentes qui sont souvent remplies, le comportement du système devient difficile à prévoir. On rentre dans une véritable non-linéarité et des petites perturbations peuvent avoir des grands effets.

Au dela du plaisir intellectuel de confirmer l'expérience de Taiichi Ohno, ces expériences sont intéressantes en terme de conception de systèmes d'information, mais ceci est une autre histoire (à suivre dans mon autre blog). En revanche, je vais poursuivre cette piste avec mon simulateur d'entreprise (SIFOA) dès que je m'y remets (probablement en Décembre, il me reste à terminer le travail sur les réseaux d'affiliation). Je pense que la simulation de processus d'entreprise est une voie prometteuse pour expliquer et démontrer le Lean Six Sigma (LSS) en tant que principe d'organisation d'entreprise. En effet, LSS est admis et reconnu dans l'industrie (ne serait-ce qu'à cause de Toyota) mais il est également pertinent dans le monde des services, et dans le monde de la "société de la connaissance". Ce n'est pas encore courament compris, et la simulation pourrait être utile ...

A suivre.

jeudi, juillet 26, 2007

Réseaux Sociaux et Systèmes de Réunions Planifiées

J’ai terminé le premier volet de ma simulation du « Corporate Meeting System » (CMS, système réunionnel) sur les traces des expériences sur les réseaux sociaux de Duncan Watts. Je vais décrire cette simulation et livrer quelques premiers résultats. Une analyse plus sérieuse sera faite lorsque j’aurai terminé une véritable campagne de mesure sur des graphes de grande taille.
Ce message est de nature un peu technique, je m’en excuse à l’avance auprès de mes lecteurs occasionnels.

1. L’objet de l’étude

Les principes généraux on été décrits dans mon message de Mai. Je m’intéresse à un graphe dont les nœuds sont les acteurs (les managers) d’une entreprise et les arêtes sont les besoins en termes d’interaction. Chaque arête représente le fait que deux personnes ont besoin de se voir (régulièrement) et la valeur affectée à l’arête (étiquette) représente la fréquence souhaitée de contact.
Je génère des graphes aléatoires, d’une taille allant de 100 personnes à 1000 (il me faudra aller plus loin, mais les algorithmes que je vais expliquer par la suite sont assez gourmand). Le graphe est aléatoire, mais sa « géométrie » est contrôlée par un degré de « clusterisation » (le facteur C de Duncan Watts). De façon simplifiée, le « custering coefficient » représente le taux de connexion entre des voisins d’un même nœud. Un taux voisin de 1 signifie que le graphe est quasi-transitif (les amis de mes amis sont mes amis). Le facteur C est important puisque de nombreuses études sur des réseaux sociaux réels montrent qu’ils on un facteur élevé de clusterisation.
Pour pouvoir juger de l’impact de ce que j’ai appelé de « diamètre informationnel » (c'est-à-dire le degré moyen des nœuds, ou autrement dit le nombre moyen de personnes que chaque acteur doit rencontrer en un mois), je contrôle également ce paramètre lors de la génération du graphe aléatoire. La génération du graphe est simple, ce qui l’est un peu moins est de générer des étiquettes de fréquence de telle sorte que la somme des fréquences soit 1 pour chaque nœud. Je fais cela avec une heuristique grossière, mais il m’a fallu du temps pour la mettre au point et cela mériterai un petit peu de recherche bibliographique pour trouver une solution exacte. Il existe bien entendu une infinité de solution. J’utilise un paramètre de l’heuristique pour contrôler la « régularité » de ces fréquences (pour aller d’une situation ou chaque voisin est vu avec la même fréquence à une situation ou il y a une distribution exponentielle de ces fréquences).

Dans la suite de cet exposé, une expérience est définie par un réseau social donné (avec ses caractéristiques : degré, taux de « clusterisation », forme de la distribution des fréquences .


2. Le principe de l’étude

Le principe est de construire un ensemble de réunions qui couvre le mieux possible les besoins en interactions, exprimé par le réseau social que nous venons de décrire.
Il se trouve que c’est un problème non-trivial, ce qui est intéressant en soi puisque chaque entreprise le résout de façon implicite chaque jour. Après différents tâtonnements, j’ai implémenté un algorithme « glouton » (sans recherche) qui correspond à l’heuristique suivante :
  1. Choisir le contact le plus utile (c'est-à-dire une arête (x,y) du réseau social de départ)
    - L’utilité est fonction de la fréquence demandée pour (x,y) et du « taux courant de réunion » (somme des fréquences déjà affectée aux hyper-arêtes existantes) pour x et y.
    - Si il existe déjà une solution de contact entre x et y avec une fréquence moindre, l’intérêt s’en trouve réduit d’autant (c’est la différence que l’on considère : fréquence demandée – fréquence déjà supportée)
    - Cette notion d’ « intérêt » tient donc compte implicitement des fréquences déjà assignées à x et y, de telle sorte que la somme des fréquences par nœud, une fois que l’algorithme termine, est à peu près constante.
  2. S’il existe une réunion (hyper-arête) qui supporte ce contact, l’arête est ajoutée à cette réunion,
    - Une hyper-arête est définie par un ensemble d’arêtes du réseau social, dont on tire : (a) la liste des nœuds, (b) la fréquence de la réunion en fonction des fréquences des arêtes (le maximum X un facteur de modération qui est un paramètre de l’heuristique)
  3. Sinon on crée une nouvelle réunion
    - La « stratégie de création de réunion » précise la taille minimale et maximale (le nombre de nœuds), ainsi que le coefficient de « modération de fréquence »

J’ai fait quelques essais de "randomization", mais elles n’ont pas donné de résultats intéressants. Un sujet à traiter par la suite serait de trouver de meilleures heuristiques. Mais, comme je l’ai déjà signalé, il est peu probable que les méthodes des entreprises soient optimales …
La question de l’équilibrage des fréquences est un peu délicate, il faudrait implémenter un algorithme d’optimisation locale pour corriger les sommes approchées.

A titre d’exemple, voici une simulation :
=== 338 meetings (7.895 meet/pers), avg frequency = 13.21301775, avg size = 9.34
3195266, MD = 56.065, cRate = 17

obtenue sur un graphe de 400 nœuds, qui produit 338 réunions (le réseau social ayant 18688 arêtes, un degré moyen ID de 93, et un facteur C de 0.5). La fréquences est exprimée en heures/mois (200 => 1 reunion unique en boucle,1 => une fois par mois). La taille moyenne est le nombre moyen de participants, MD est le diametre réunionel (cf. les messages précédents : le nombre des personnes que je vois une fois par mois dans une des réunions). On peut définir un taux de clusterisation (cR) de la même façon.

J’ai encapsulé les paramètres de l’heuristique dans un objet appelé « stratégie de création de réseau d’affiliation ». Je peux jouer avec ces paramètres et j’ai créé de nombreuses situations en fonction :

  • Du nombre de participants en réunion.
  • De la fréquence moyenne des réunions.
  • De la distribution de cette fréquence

Je peux facilement tester des stratégies hybrides, correspondant à une structure « de petits mondes » (cf. les messages précédents : beaucoup de petites réunions fréquentes et quelques grosses réunions plus espacées).


3. La réalisation de l’étude

La simulation consiste donc à :

  • Construire une expérience, c'est-à-dire un réseau social.
  • Choisir une stratégie de couverture par un réseau d’affiliation, c’est-à-dire générer les hyper-arêtes
  • Calculer les distances et longueurs moyennes en tirant aléatoirement 1000 paires de nœuds. La génération aléatoire tient compte de la fréquence : les paires ont une chance d’être tirée qui est proportionnelle à l’étiquette sur le réseau social.

Le calcul de la distance se fait avec un algorithme de plus court chemin (Dijkstra) pour produire trois informations :

  • Le degré de séparation : plus petit chemin en nombre d’arêtes.
  • La distance : plus court chemin en utilisant l’inverse des féquence comme distance sur les arêtes. La somme des inverses des fréquences représente le temps de propagation de l’information (pour s’en convaincre : plus une réunion est fréquente, plus la propagation qu’elle assure est rapide).
  • La longueur du chemin associé (pas forcément le degré de séparation, puisque les plus court chemins ne coïncident pas selon les deux distances).

Pour obtenir des résultats plus stables, chaque simulation est repété plusieurs fois (10 aujourd’hui parce que j’étais pressé, il faudra que je contrôle la déviation et que j’ajuste, probablement à 100).

A titre d’exemple, voici ce que l’on obtient :

-- experiment line [ 552s ] -------------------
ID cld frd deg MD cls fqr path dist sep d(dis)
92.27 46 39 8.5275 64.36 17 39 2.37 6.93 1.60 0.376

Ici la distance moyenne (durée de propagation) est de 6.93 heures (37% de déviation), pour un degré de séparation de 1.6 et une longueur de chemin de 2.37.

4. Premiers résultats

  • Le degré de clusterisation du réseau social est un facteur d’efficacité pour le système réunion (on s’en serait douté). Il reste à examiner ce qui se passe dans les cas extrêmes, mais ils ne sont pas forcément représentatif (il y a une transition de phase puisque lorsqu’on force la clusterisation à degré constant, on casse la connectivité globale).
  • Le diamètre réunionnel optimal semble suivre la loi prévue (cf. message précédent), à confirmer avec un gros volume d’expériences. Il faudra également caractériser la loi d’évolution du temps de propagation optimal.
  • L’influence de la distribution des fréquences dans le réseau social initial reste à caractériser mais il est clair que le problème de couverture devient plus difficile si les fréquences sont homogènes. On obtient un temps de propagation qui est multiplié par 10 si toutes les fréquences sont les mêmes. Ceci s’explique simplement par le fait que l’heuristique fonctionne bien et « capture » les clusters qui existent sous forme de réunion.
    Il y a une bonne stabilité des stratégies de création de réunion par rapport aux expériences … à confirmer. Ce serait plutôt encourageant quant à la pertinence de ce travail (il ne servirait à rien d’optimiser un système réunion si celui-ci est instable par rapport aux conditions de l’entreprise).
  • Le diametre réunionel optimal correspond à des réunions fréquentes (donc pas très nombreuses). Par exemple, pour un des exemples de 400 personnes, il est de 46.
    La longueur du chemin optimal peut être améliorée avec une structure mixte « de petit monde » - cf. messages précédents – mais l’amélioration n’est pas très significative avec des graphes à 100 ou 400 nœuds. A creuser lorsque j’aurai des études plus complètes.


Je vais revenir à d’autres expériences pour un exposé que je prépare sur les systèmes complexes, donc la suite arrivera à la fin de l’année, probablement sous la forme d’un article de recherche.

lundi, juillet 16, 2007

Une interview vidéo

Pas grand-chose de neuf puisque je rentre de vacances, hormis une moisson de livres sur Lean Six-Sigma ... qui devient "incontournable" aux US puisqu'on trouve ces livres chez Borders, chez Barnes&Nobles, ... au milieu des livres généralistes !

Un lien sur un interview (au sujet de mon dernier bouquin), qui peut être l'occasion de découvrir Next Modernity.

http://nextmodernitylibrary.blogspirit.com/archive/2007/07/10/yves-caseau-performance-du-systeme-d-information.html

dimanche, mai 27, 2007

Un nouvel exemple de Simulation par Théorie des Jeux et Apprentissage

Je vais revenir aujourd’hui sur l’approche GTES (Game Theoretical and Evolutionary Simulation) qui s’inscrit dans la droite ligne des travaux de Robert Axelrod. Cette méthode joue un rôle central dans mes différents travaux de simulation et elle mérite d’être expliquée en profondeur. Pour que le travail effectué sur la simulation des architectures d’entreprises et des flux d’information puisse se transformer en une publication et avoir un impact, il est important que les fondements méthodologiques tels que GTES soient compris et acceptés.

Je suis passé à un acronyme anglais après avoir lu « The Complexity of Cooperation » de R. Axelrod (Princeton University Press, 1997). Le sous-titre de ce livre est « Agent-Based Models of Competitions and Cooperation ». Le thème commun du livre est l’utilisation de modèles à agents pour étudier des scénarios de coopération/compétition entre plusieurs joueurs. Chaque joueur est représenté par un agent, dont la stratégie est optimisée au moyen d’une approche « evolutionary programming », plus précisément des algorithmes génétiques. En clair, R. Axelrod pose la coopération comme un problème d’optimisation global et « découvre » les stratégies des joueurs par apprentissage. Selon mon habitude, voici une liste de points saillants que j’ai relevés, au lieu de faire une véritable synthèse :

  1. Le livre commence par une merveilleuse histoire, celle de la stratégie optimale du jeu du « dilemme du prisonnier répété ». Il s’agit d’un jeu classique à deux joueurs, très connu sous sa forme « à un coup » : la stratégie globalement optimale est la coopération, mais du point de vue de chaque joueur, il est préférable de ne pas coopérer (et de « trahir » l’autre). Dès qu’on rentre dans une succession de parties avec les mêmes joueurs, les choses se corsent puisque la trahison appelle la punition … R. Axelrod a organisé dans un premier lieu un tournoi d’agents informatiques (chacun programmé par un chercheur d’un laboratoire différent), puis il a créé un modèle et une expérimentation d’optimisation par algorithme génétique. La beauté de son travail est que les deux approches aboutissent au même résultat : la meilleure stratégie est le « TIT-for-TAT », le fait de reproduire au coup N+1 le mouvement du joueur adverse au coup N. Cette stratégie encourage la coopération mais punit la trahison. Le premier chapitre du livre, qui raconte cette double expérience, est une contribution fondamentale, me semble-t-il, d’un point de vue scientifique.
  2. Le second chapitre traite de l’introduction du « bruit » dans les résultats de la coopération et de son influence sur les stratégies des acteurs. Comme le chapitre précédent, il s’agit d’une référence fondamentale pour l’approche GTES qui contribue à établir sa crédibilité.
  3. Les pratiquants de la Recherche Opérationnelle apprécieront la partie sur les « paysages » des problèmes d’optimisation. Cette partie contient des réflexions sur la caractérisation des équilibres et des liens avec les équilibres de Nash (cf. un de mes messages précédents)
  4. Le chapitre 4 contient une réflexion sur l’organisation des entreprises qui postule le lien entre l’efficacité de l’organisation et la gestion des flux de communication. C’est donc une référence fondatrice pour l’approche « SIFOA » de ce blog.
  5. D’un point de vue méthodologique (présentation et discussion d’une simulation), le chapitre 6 est un modèle et je compte m’en inspirer dans le futur J D’une manière plus générale, le livre fourmille de petits commentaires passionnants sur la façon dont les idées se propagent, ou sur comment introduire des éléments aléatoires (stochastiques) dans une simulation.


Je vais maintenant donner un nouvel exemple (simple) de l’approche GTES sur un problème de stratégie de distribution. La simplicité (relative) du modèle (et du problème posé) permet d’apprécier le fonctionnement et l’intérêt d’une telle approche. J’ai implémenté ce modèle sur un problème précis, avec de vrais chiffres mais je vais ici me contenter de le décrire de façon générique.
Je suppose qu’il existe deux compagnies de téléphone A et B qui utilisent plusieurs réseaux de distribution (R1 à R6). Ces réseaux peuvent soit vendre des téléphones (avec un contrat associé), soit procéder à des renouvellements : remplacer un vieux téléphone par un neuf en conservant le contrat existant).
La stratégie de distribution de chaque compagnie (A ou B) est définie par quatre montants, pour chacun des réseaux de distribution : le montant de la subvention pour l’achat ou le renouvellement, qui est la somme d’argent implicitement transférée au consommateur, sous la forme de réduction du prix d’achat, et le montant de la rémunération du réseau de vente, également différentiée selon l’achat ou le renouvellement.
On pourrait penser qu’il s’agit donc d’un problème « simple » d’allocation des ressources, chaque compagnie essayant de générer le maximum de flux pour un montant d’investissement de distribution donnée. En fait, il existe deux sources de complication : (1) les réseaux sont en compétition pour les même clients (2) chaque réseau peut influencer le client qui rentre en contact en fonction de son intérêt propre.
Pour étudier ce couplage et pouvoir comparer les différentes stratégies des deux joueurs A et B (dans la grande tradition de la théorie des jeux, sous forme de matrice), j’ai construit le modèle suivant, inspiré par une conversation avec Pierre Schaller. Il s’agit de suivre 100 clients pendant deux ans, qui vont acheter un téléphone au « temps 0 », puis effectuer une deuxième action au bout de 12 mois : ne rien faire, renouveler son téléphone ou décider d’acheter un nouveau téléphone avec un nouveau contrat (ce que l’on appelle le « churn »).
J’ai décidé d’utiliser deux courbes en S pour modéliser ce marché de 100 clients :

  • Une courbe de marché qui donne l’appétence en fonction du prix facial du mobile.
  • Une courbe de churn qui donne la répartition renouvellement/changement en fonction du différentiel de prix entre un achat et un renouvellement (plus la différence est importante, plus le client décidera de quitter son contrat plutôt que d’utiliser l’offre de renouvellement)

Le modèle proprement dit est fort simple et se décompose en cinq étapes élémentaires :

  1. Déterminer les parts de marché globale (A+B) de chacun des réseaux en fonction des prix faciaux pratiqués (c’est-à-dire en tenant compte des subventions). Les déviations, par rapport aux parts de marché initiales, sont obtenues à partir de la courbe en S « de marché ».
  2. Déterminer les parts de marché respectives de A et B dans chaque réseau avec la même méthode. On remarquera que dans ce modèle, on s’intéresse à une base fixe de 100 clients, donc on ne prend pas en compte des effets d’agrandissement ou de rétrécissement du marché (ce qui signifie qu’on s’intéresse à la ventilation des investissements de distribution, pas à leur montant global).
  3. Déterminer le taux de churn au bout d’un an, en partant d’un taux de souhait de renouvellement (un paramètre du modèle). Le pourcentage des clients qui veulent changer est réparti en deux catégories, churn et renouvellement, à partir du taux de churn original, et un ajustement différentiel obtenu à partir de la seconde courbe en S.
  4. Les renouvellements sont distribués selon les réseaux de distribution avec une méthode qui est similaire à celle de l’étape 1-2 : on repart des parts de marché constatées pour les renouvellements, avec un ajustement déduit de la courbe en S et des prix faciaux proposés aux clients.
  5. Les clients qui churnent sont transformés en ventes pour l’année 2 en utilisant le modèle des étapes 1-2 (la même chose une année plus tard).


Si l’on cherche à décomposer ce modèle suivant les trois catégories de l’approche GTES, on obtient :

  • (a) Les paramètres du modèle sont les deux courbes en S précitées, le taux de changement au bout d’un an et le taux d’indécision, c’est-à-dire la fraction du public qui peut se faire influencer par le réseau pour choisir entre A et B. Les deux derniers paramètres sont assez bien connus, et les sensibilités des courbes en S peuvent être obtenues par différentiation, en supposant que les subventions à l’acquisition sont optimisées par rapport au compromis dépense/acquisition, et que les suventions à l’acquisition sont optimisées par rapport à l’équilibre churn/renouvellement. Cela signifie que nous pouvons remplacer l’approche « Monte-Carlo » qui est habituellement utilisée pour les paramètres dans l’approche GTES par une double simulation pour calibrer les courbes en S.
  • (b) Les stratégies des joueurs sont les 2 x 6 x 4 paramètres qui ont déjà été présentés.
  • (c) Les « tactiques », qui sont calculées par optimisation (locale ou algorithme génétique), représentent les stratégies des réseaux pour optimiser leur revenus. Elles sont représentées par 3 chiffres : la sur-subvention que le réseau consent pour être plus compétitif (une partie de la rémunération qui est reversée au client), en acquisition et en fidélisation, et un paramètre qui décrit la façon dont le réseau influence les clients indécis.

Le déroulement d’une simulation est fort simple : étant donnée les stratégies des deux joueurs A et B, le programme d’optimisation calcule les tactiques optimales de chaque réseau, pour maximiser ses revenus. On relève alors les résultats financiers des joueurs A et B. Cette méthode permet de construire la «matrice des stratégies ».

Quel est l’intérêt d’une talle approche par rapport à un calcul classique utilisant un tableur Excel ? C’est qu’elle permet de prendre en compte la façon dont les réseaux de distribution s’adaptent aux changements de stratégie des joueurs. La sophistication de cette simulation traduit les couplages subtils qui existent entre l’ensemble des parties prenantes. En fait, la réaction des distributeurs par rapport à un changement de A dépend clairement de la stratégie de B. C’est du simple bon sens : si A essaye d’optimiser ses résultats aux dépends de ses distributeurs, ceux-ci changeront d’allégeance si les conditions de B sont plus favorables.

Dans l’exemple précis que j’ai simulé, cette approche permet de voir que cette adaptation « amortit » les effets positifs du changement que A souhaite mettre en place, mais ne l’annule pas. C’est donc une façon constructive d’instruire le débat entre :

  • Les partisans du changement qui vont dire que cette nouvelle répartition des investissements commerciaux est plus efficace (ce qu’on « voit » avec un tableur Excel).
  • Les « prudents » qui vont expliquer (à juste titre) que la distribution réagira à ces changements de façon contradictoire.

J’ai pris un peu de temps avec cet exemple parce qu’il est plus simple que ce que je souhaite faire en terme de simulation d’entreprise pour SIFOA mais illustre bien les apports réciproques de la théorie des jeux et des méthodes d’apprentissage pour simuler des processus complexes de coopération.

mardi, mai 08, 2007

Simuler les réseaux sociaux d'entreprise

Je rentre d’un voyage aux US qui m’a permis de rencontrer de nombreuses personnes, et en particulier Dan Rasmus , qui est le « Director of Information Work Vision at Microsoft Corporation » et travaille également pour le « Institute for Innovation and Information Productivity ». Dan joue un rôle de prospectiviste pour Microsoft, c’est également un expert depuis plus de 20 ans sur les questions d’outils et de productivité. Interrogé sur le sujet du ROI (return on investment) des outils qui améliorent la productivité, il propose une réponse que j’aime beaucoup : « Horizontal technologies have no ROI without a business process scenario ». Les technologies « horizontales » sont précisément les technologies qui améliorent la collaboration et la transmission d’information. On retrouve une des clés (qui m’aura pris un certain temps à trouver) : on ne peut pas valoriser les améliorations de réactivité (réduction de latence) sans un scénario complet de l’exécution d’un processus métier.
Deux conclusions :
  • La bonne nouvelle, c’est que l’approche « SIFOA » sur laquelle je travaille depuis deux ans, avec un simulateur de processus métier, est la seule qui puisse permettre d’évaluer l’impact de l’usage des (nouveaux) canaux de communication ou des nouvelles formes d’organisation.
  • La mauvaise nouvelle, c’est la même chose : La simulation de processus métier est nécessairement complexe et il y a donc un double travail de pédagogie (expliquer le modèle) et d’étalonnage (trouver des données statistiques adaptées) pour asseoir la crédibilité de ce travail.


En passant, je suis surpris par la différence de maturité entre la France et les US sur les sujets d’organisation, de processus métiers et de transmission d’information. Les pré-requis conceptuels que j’essaye de distiller dans ce blog font maintenant partie de la culture « courante » outre-Atlantique.

J’ai donc décomposé mon travail pour 2007 en deux sous-chantiers :

  1. Travailler sur la latence du transfert d’information en tant que sous-problème autonome, dans la lignée des travaux de Duncan Watts. C’est ce dont je vais parler dans ce message.
  2. Raffiner mon modèle de fonctionnement d’entreprise pour en faire un modèle autonome, dans la tradition des modèles de March & Simon (cf. la review du livre « Organisation » que je ferai d’ici un mois). Ce modèle n’est « qu’une similation » par évènements discrets de processus métier, avec une modélisation simple des enjeux économiques (fonction à optimiser) et des ressources. Il se trouve que ce modèle a également un intérêt propre, pour comprendre l’intérêt de l’approche « Lean Six Sigma » sur une entreprise immatérielle. Je commence à m’intéresser de plus en plus à Lean Six Sigma pour des raisons professionnelles, et certains principes sont contre-intuitifs, ce qui prêche en faveur de la simulation pour se les approprier.

Aujourd’hui je vais parler du travail d’expérimentation sur les réseaux sociaux et réseaux d’affiliation, que j’ai commencé il y a un mois, en étant guidé par le livre de Duncan Watts et par un excellent article « Basic Notions for the Analysis of Large Affiliation Networks / Bipartite Graphs » de M. Latapy, C. Magnien et N. Del Vecchio. Je vous recommande le site perso de Matthieu Latapy pour une introduction aux réseaux sociaux en tant qu’objet de recherche scientifique.

J’ai donc réalisé un générateur de graphe aléatoire pour réaliser trois types d’expériences :

  1. Génération de réseaux sociaux aléatoires (qui représentent des contacts one-to-one) étiquetés avec des fréquences de contact, et calcul des distances, avec ou sans prise en compte des étiquettes. Dans un cas on obtient le degré de séparation (ce qui permet de valider le modèle par rapport aux résultats connus), dans l’autre cas, on obtient une latence de propagation d’information.
  2. Génération d’un réseau social aléatoire qui représente les besoins connus de communication, et évaluation de différentes heuristiques pour construire un réseau social sous contrainte de degré maximal. Cela ressemble beaucoup à un problème d’optimisation de « network design ». Ce qui m’intéresse n’est pas le calcul d’une solution optimale (il n’y a pas de raisons de penser que le réseau social des contacts dans une entreprise soit optimal) mais plutôt de caractériser la latence (distance avec les étiquettes).
  3. Génération du même réseau social des besoins de communication, puis génération d’une « couverture » par un réseau d’affiliation, autrement dit d’un ensemble de réunions. C’est la généralisation du cas (2) en remplaçant des arêtes par des hyper-arêtes dans un hypergraphe. Le terme de couverture est indiqué puisque ce problème ressemble à des problèmes de couvertures de graphes/ ensembles (set covering). Ici aussi, je ne cherche pas « la solution optimale »,mais plutôt une heuristique de bonne qualité, pour caractériser ce que l’on peut attendre d’un « bon système réunion ».

J’ai terminé les parties (1) et (2) et j’ai maintenant les premiers résultats numériques.
Des que j’ai un peu de temps, je vais rédiger un article. Le générateur de graphe me permet de produire des graphes avec des paramètres différents : distribution des degrés, coefficient de cluster-isation, distribution des fréquences de contact, etc. Je retrouve naturellement (ouf J) les propriétés présentées par Duncan Watts mais elles sont étendues dans le cadre des graphes étiquetés.
En attendant, la conclusion la plus intéressante est double :

  1. La loi proposée il y a un an pour caractériser la latence en fonction du diamètre réunionnel, de la taille des réunions, etc. semble être vérifiée expérimentalement. Cf. l’annexe 2 de mon livre : log (Di / Dr) x Dr / T.
  2. Les « suggestions » tirées de cette loi, telle que le fait de diminuer le diamètre réunionnel (voire moins de personnes, mais plus souvent) semblent également judicieuces. Les valeurs numériques donnent un petit groupe fortement connecté (de l’ordre de 5 personnes pour une entreprise avec 1000 cadres).

    A suivre lorsque j’aurai un peu plus de recul …

dimanche, mars 18, 2007

Revue du livre "Complex Organizations" de C. Perrow

Un court message ce week-end, organisé autour du commentaire d’un livre. Au cours de la rédaction de mon bouquin l’été dernier, je me suis réalisé une «pile de livres à lire » que je commence cette année. Le livre de Charles Perrow « Complex Organizations » est le premier de cette pile, c’est en fait un "incontournable" que j’aurais du lire plus tôt … Les prochains, que je lis en ce moment sont « The complexity of Cooperation » de R. Axelrod et « Organizations » de J. March et H. Simon. La proximité entre ce que je fais et ces deux derniers livres est exceptionnelle, j’y reviendrais.

Voici donc une liste de quelques idées clés retenues dans le livre de Charles Perrow, à cause de leur pertinence par rapport au thème de ce blog. Comme pour le livre de Watts, ce n’est pas une « fiche de lecture fidèle »…

  • Une réflexion sur l’émergence naturelle de « surplus » dans une bureaucratie, c’est-à-dire (dans ce contexte) une organisation fortement hiérarchique. L’analyse des bureaucratie inclus une réflexion passionnante sur le « span of control », ou l’on retrouve des arguments déjà exposés dans ce blog (des deux cotés du dilemme « hiérarchie plate » vs « hiérarchie profonde »). En particulier, il cite P. Blau sur l’importance du temps nécessaire pour l’échange entre les managers et leur subordonnés directs dans des situations complexes.
  • Une réflexion sur la relation entre l’organisation et les flux d’information qui est précisément le sujet de ce blog. Je vous livre à titre d’exemple cette citation que je pourrais reprendre : « The hierarchy established routes of communication where information was needed and levels where certain kinds of decisions could be made ». Charles Perrow propose une abstraction de la hiérarchie autour de trois fonctions : la communication, la gestion des connaissance et la prise de décision. Les réflexions sur la formalisation de la prise de décision m’ouvrent des portes pour améliorer mon propre modèle.
  • Il propose une description très intéressante du modèle de H. Simon en terme d’entreprise. La proximité intellectuelle avec le modèle générique proposé dans SIFOA (modèle autour des processus) est frappante (y compris dans la démarche), j’y reviendrai après avoir lu le livre de H. Simon. En particulier, la communication y joue un rôle structurant, et est organisée suivant les canaux (sounds familiar ?) et leurs poids respectifs.
  • Charles Perrow propose une analyse des conflits dans l’entreprise, avec en particulier une description du modèle des « garbage cans », qui « greatly illuminates the micro organizational process of group dynamics, intergroup relations and the dilemnas of leadership, … it makes some kind of sense out of the bewildering shifts, turns, and unexpected outcomes in daily organizational life ».
  • De façon similaire, il étudie également le sujet de la centralisation/decentralisation en fonction du “coupling” (ce que j’ai désigné par le “degré de transversalité” des processus dans mon modèle) et la complexité. Sa conclusion, traduite dans le contexte des entreprises modernes, est en faveur de la décentralisation (cf. 2eme partie de mon livre).
  • Pour finir, ce livre contient un « survey » de différents modèles du fonctionnement de l’entreprise, tels que les modèles « population ecology » ou le modèle des « coûts de transactions » originellement du à Coase. En particulier, l’approche de R. Nelson et S. Winter dans « An Evolutionary Theory of Economic Change » semble très intéressante pour mon approche (je viens d’ajouter le livre à ma pile :)). Ce modèle s’intéresse à la mémoire organisationnelle (« Organizations remember by doing »), qu’il s’agisse de procédure ou de processus.

J’ai présenté la méthode « Simulation par Jeux et Apprentissage » lors de la dernière conférence ROADEF-FRANCORO (Recherche opérationnelle) à Grenoble, et je suis revenu avec quelques idées neuves, et une meilleure compréhension de la recherche des équilibres. J’en parlerai lors d’un prochain message. Une des priorités en ce moment est de réaliser un « automate à simulation », parce que l’exploration telle que je la pratique (en lançant des « expériences » à la main) n’est pas assez systématique pour tirer des enseignements convaincants.

Une des autres idées qui me trottent dans la tête est de reprendre les simulations de Duncan Watts en introduisant les informations de fréquence de contact dans les réseaux sociaux (graphes étiquetés). Cela a un double intérêt : scientifique, pour voir si l’ajout de cette information permet de confirmer et raffiner les résultats de Watts, et pratique (par rapport à mon objectif d’étude des organisations) pour mieux caractériser le réseau d’affiliation (alias « le système réunion ») pour ma propre simulation.

dimanche, mars 04, 2007

Optimiser les réunions pour éviter le multi-tasking

Mon second livre est enfin sorti (cf. lien à coté) ! Aujourd’hui je vais mettre en valeur le sujet de l’organisation des réunions en commentant sept propositions qui sont tirées de ce livre.

Je vais commencer par commenter une étude très intéressante de University of London qui montre que les collaborateurs d’une entreprise qui sont soumis au flux d’interruptions des coups de téléphone et des email sur un PDA (de type Blackberry) perdent en moyenne l’équivalent de 10 points de QI en terme de capacité de réflexion ! (voir par exemple). Ce résultat n’est pas isolé : dans son célèbre livre « Peopleware », DeMarco et Lister rapportent des expériences qui ont été faites sur des programmeurs, avec et sans interruptions dans leur travail, et qui sont sans appel : la perte de productivité causée par les interruptions est spectaculaire ! Le temps est une donnée précieuse, qui ne peut pas être segmentée ou subdivisée sans impact, il faut des «périodes entières » pour accomplir un travail intellectuel efficace.

D’où vient donc cette épidémie du multi-tasking, qui est de plus en plus critiquée dans la presse « business » mais qui est clairement un tendance de fond (un sujet que j’aborde dans mon livre :)) ? Le multi-tasking, grâce aux outils modernes (téléphone mobile et PDA) est une réponse à « l’accélération du temps » (le besoin de prendre des décisions rapidement) et à la surcharge informationnelle dans laquelle nous (dans le monde des entreprise) vivons de plus en plus. En passant, l’étude précitée montre une autre chose bien connue dans le monde des neurosciences : les femmes sont plus aptes que les hommes au multi-tasking (la perte est de 15 points de QI pour les hommes et 5 points seulement pour les femmes). La « nécessité » d’utilise le téléphone ou le blackberry comme un canal d’urgence pour obtenir une réponse rapidement est la conséquence d’une mauvaise gestion du temps et des priorités, qui font qu’il faut entre dans un mode « exception » pour traiter des sujets prioritaires. L’usage en mode interruptif n’est pas une caractéristique de l’outil (téléphone ou PDA) mais bien une conséquence de cette utilisation du canal (je ne suis obligé de consulter mon email fréquemment que s’il est attendu que je réponde rapidement aux emails « urgents »).

Il existe donc un lien évident entre la bonne utilisation des outils de communication, des canaux de communication et la bonne utilisation des réunions (un des sujets de fond de ce blog). Un bon « système réunion » doit laisser le temps de traiter rapidement les sujets exceptionnels et les aléas de forte priorité. C’est ce sujet qui est partiellement abordé dans mon livre, en attendant un livre complet sur le sujet (en 2009 ?).

Sur le sujet du contrôle de la quantité d’information qui passe par chaque canal, je ne peux que recommander la lecture d’un excellent article par Naomi Baron « Adjusting the Volume : Technology and Multitasking in Discourse Control ». La métaphore du « réglage de volume » qui consiste à piloter le flux d’information en entrée (ce qui ajuste de facto le temps de réponse, c’est-à-dire la latence du canal) recouvre précisément une partie de ce que je traite dans ce blog depuis deux ans. L’article de Naomi Baron est très riche et fait référence à de nombreuses études.

Puisqu’il est essentiel d’éviter la surcharge et de bien traiter les priorités, voici donc sept suggestions qui concernent l’organisation des réunions :

  1. Il faut utiliser les échanges électroniques (email) pour diffuser de l’information, et au contraire ne traiter les sujets difficiles que sous forme de contact visuel. Toutes les études faites en psycho et sociologie dans le domaine CMC (Computer-mediated communication) montre que (a) la communication corporelle (b) la boucle de retour implicite dans la communication face-à-face sont essentielles pour traiter de sujets conflictuels. A l’inverse, l’asynchronisme de la communication électronique facilite la possibilité de trouver son interlocuteur « dans un bon état d’esprit » pour s’informer ou pour apprendre.
  2. Dans une réunion de décision, la majorité du temps doit être consacré à l’appropriation, c’est-à-dire la reformulation par chacun des présents. J’ai déjà donné dans un message précédent les références des études qui montrent qu’on lit beaucoup plus vite qu’on écoute. Dès qu’il y a plusieurs destinataires, il existe un avantage au courrier électronique par rapport à la présentation orale. En conséquence (et en règle générale, il existe toujours des exceptions), il est plus efficace de faire parvenir les documents de travail à l’avance sous forme électronique pour prendre la décision en début de réunion. La majeure partie de la réunion doit permettre à chacun de s’exprimer (ce qui transforme l’appropriation en action, et ce qui ne peut pas, précisément, se faire de façon électronique). Le rôle fondamental de l’appropriation est très bien expliqué par Christophe Legrenzi, lorsqu’il contraste les styles de réunions dans différents pays (en particulier la France, l’Allemagne et le Japon).
  3. La responsabilisation des acteurs pendant une réunion est fondamentale et implique qu’il faut réduire le nombre de participants pour toute réunion hormis une réunion d’information. Les exemples tirés de la sociologie abondent qui montrent que la multiplication des présents dilue rapidement la responsabilité. On pense aux exemples de Christian Morel (syndrome du spectateur) ou au « diner’s dilemma », qui ont déjà été évoqués sur ce blog. La conséquence est qu’il faut savoir couper une réunion de 20 personnes (ou de 15 !) en deux : la première réunion ne comporte que les acteurs du sujets (qui doivent être responsables et doivent tous s’exprimer – cf. le point précédent). La seconde contient les autres parties prenantes qui doivent être informés (et s’approprier, sinon un email suffirait). L’ensemble des deux réunions est plus efficace et plus efficient que la réunion unique.
  4. Le rôle de l’animateur pour construire le consensus (qu’il s’agisse d’un projet ou du pilotage d’un processus) est une clé d’efficacité. Si, pour établir un consensus entre n acteurs, il est nécessaire que chacun s’exprime au moins 5 minutes, il faudra au moins 5 x n^2 minute.homme dans une réunion générale, alors que la préparation 10 x n minute.homme si l’animateur passe voir chacun au titre de la préparation de la réunion. Autrement dit, pour les sujets importants, il vaut mieux attribuer les rôles de coordination à des personnes plutôt qu’à des comités.
  5. Il faut favoriser la latence de transmission des informations importantes (i.e., la rapidité) en utilisant le « système réunion », plutôt que le mode « exceptions », en constituant des petits clusters fortement connectés. Cela signifie que les réunions planifiées doivent permettre à chaque collaborateur de voir de façon fréquente les acteurs principaux avec lesquels il collabore (son manager, ses direct reports, etc.). Comme il s’agit d’un compromis (on ne peut pas rencontrer tout le monde souvent, il faut arbitrer entre le souvent et le fait de rencontrer un grand nombre de personne), il faut jouer sur la taille de ce groupe et sur le fait de privilégier des réunions courtes et fréquentes. L’objectif est de garantir la capacité à propager les informations importantes même dans le cas d’une surcharge de travail. L’absence d’une telle structure est la raison principale de la non-délégation en réunion : plusieurs managers sur la même ligne hiérarchique sont présents car ils n’auraient pas sinon l’occasion d’échanger sur le sujet.
  6. Cette structure doit être compensée par l’existence, au sein du « système réunion », d’une part de réunions d’information avec un grand nombre de participants et d’autre part de comités transverses qui réunissent des personnes « éloignées ». Il s’agit précisément de construire une « structure de petits mondes » qui garantit une propagation rapide de l’information. Il s’agit également de construire des chaînes courtes pour l’alignement stratégique de l’entreprise. Il est important que certaines orientations stratégiques puissent parvenir à l’ensemble des collaborateurs avec un nombre minimal d’intermédiaires. On notera que ce dernier point est ressemble à la préconisation de l’aplatissement des hiérarchies.
  7. L’agenda partagé de l’ensemble des comités est un outil précieux pour organiser des chemins privilégiés de propagation des informations. On peut de la sorte s’assurer que des paires de comités qui sont liés dans la transmission sont ordonnancées avec un délai minimal. L’exemple le plus classique consiste à placer les comités « de remontée d’information ou d’analyse » juste avant un comité de direction générale, tandis que les comités « d’information ou d’alignement stratégique » sont placés juste après.

samedi, février 10, 2007

Les fondations pour l'étude des réseaux sociaux

Je reprends la plume (le clavier) après un mois de Janvier un peu chahuté, mais qui m’a permis de progresser sur le principe de « Simulation et Apprentissage ». En particulier, avec une meilleure caractérisation des équilibres, et en utilisant des « modèles robustes », j’ai pu obtenir des résultats beaucoup plus « propres » (avec un taux chaotique beaucoup plus bas). Ceci sera l’objet d’un prochain message. Ce n’est pas à proprement parler un sujet central de l’architecture organisationnelle, mais comme je l’ai expliqué la dernière fois, je suis convaincu qu’il est nécessaire de disposer d’outils de simulation de qualité pour pouvoir valoriser la réactivité (la latence du transfert d’information) dans une entreprise.

Aujourd’hui je vais proposer une analyse du livre « Six Degrees – The Science of a Connected Age ». J’ai cité plusieurs fois le livre de Duncan Watts, dans ce blog comme dans mon nouveau livre (qui sort le 21 Févier). Depuis j’ai eu l’occasion de le retravailler et je pense de plus en plus que c’est un livre fondamental sur le thème de l’architecture organisationnelle et des flux d’information. Je vais donc proposer un « best-of » des idées contenues dans ce livre qui se semble pertinente pour ce thème. Il ne s’agit donc pas d’une « fiche de lecture », dans le sens où je vais filtrer certains des points les plus fondamentaux (je rappellerai juste que ce livre est LA référence pour comprendre le terme de « six degrés de connexion »). Il contient également une foule d’information sur des familles de graphes aléatoires et leurs propriétés.

  • La notion de petits mondes désigne une propriété d’un réseau social en tant que graphe, qui s’exprime comme un compromis sur le degré de connectivité et le taux de « cluster ». Cette structure (a) semble exister dans un très grand nombre de cas de réseaux humain (lire le livre pour s’en convaincre) (b) se caractérise par un temps de propagation/ latence logarithmique. Ce qui crée cette structure est le « compromis » entre la structure de « clusters » (les amis de mes amis sont mes amis) et l’existence d’un certain nombre de liens « aléatoires ». Trop de liens aléatoires rendent la propagation difficile (il existe beaucoup de chemins … trop !), pas assez de ces liens oblige à passer par les liens « locaux » ce qui prend trop de temps. Il faut lire en particulier le chapitre qui parle des travaux de Keinberg. J’ai l’intuition que la condition de Kleinberg trouve sa place dans l’optimisation des réseaux de transfert d’information.
  • La notion de distribution sur les degrés, et de réseaux « scale-free », est fondamentale même si elle est moins pertinente dans le cadre d’une entreprise. Cette notion prend son importance avec des populations très larges. Les réseaux « scale-free » ont une distribution « puissance » au lieu d’une exponentielle décroissante, ce qui produit plusieurs propriétés remarquables. [En passant, je ne peux que conseiller la lecture du livre de Chris Anderson « The Long Tail », qui est également fondé, du point de vue mathématique, sur une distribution puissance (power law) la où on s’attendrait à une exponentielle décroissante … mais je m’égare J ]
  • Une partie du livre est consacré aux « réseaux d’affiliation », qui sont précisément les réseaux obtenus en observant des individus qui participent à des évènements communs (des réunions par exemple !). Qu’on les modélise avec des graphes bipartis ou des hyper-graphes, ce sont les fondements de la théorie du « système des réunions » que je ne désespère pas d’écrire un jour. Duncan Watts donne un exemple très intéressant sur l’étude des réseaux d’affiliations liés à la présence à des conseils d’administration.
  • Une référence à « Obedience to Authority » de Stanley Milgram. Ces expériences qui montrent la difficulté à resister à l’autorité (et à faire des choses inacceptables) font partie des exemples classiques, mais elles sont discutées ici avec intelligence et rigueur. De la même façon, la référence aux expériences d’Elisabeth Noelle-Neumann est très intéressante et pertinente dans le monde de l’entreprise. Son concept de « spirale du silence » montre l’importance de la perception, et le fait que les individus arrête de professer une opinion si ils la perçoivent comme minoritaire.
  • Une des lois fondamentale de la sociologie est que la « proximité » n’est pas une distance (au sens mathématique - elle viole l’inégalité triangulaire). Ce point mérite le lire le livre à lui tout seul. (ou une explication détaillée une autre fois J)
  • Le chapitre 6 établit le lien avec la physique et le concept de percolation. Cette idée, qui m’avait été suggérée par César Douady, est très prometteuse. La percolation (issue, par exemple, de travaux sur la cristallisation, les gels, etc.) permet de caractériser des conditions de transferts « en cascade » (comme, par exemple, les épidémies). Un bonus supplémentaire, une partie de ce chapitre traite de l’application à la caractérisation de la fiabilité, ce qui est directement applicable au thème de recherche de mon autre blog (la biologie des systèmes d’information distribués). J’y ai retrouvé une autre idée qui m’avait été signalée par Michèle Sébag (connue sous le nom du « diner’s dilemna » et qui a trait à l’existence d’une transition de phase dans le comportement d’un groupe de personnes qui partage une responsabilité.
  • Pour finir (parce que le livre est tellement riche que je laisse beaucoup de choses sous silence), le chapitre 9 contient … une réflexion sur les challenges de l’entreprise moderne en terme de réactivité et d’agilité, les liens avec l’organisation en terme de flux d’information, et en particulier l’organisation hiérarchique, qui est totalement aligné sur les questions que je me pose dans ce blog. En particulier, la discussion sur le « span of control » est très proche des discussions sur les hiérarchies plates présentées il y a un an. La conséquence est la notion de « multi-scale connectivity » … et je vous renvoie à mon Annexe II lorsque le livre sortira pour mesurer la proximité de ces résultats. Ces travaux sont liés à un groupe du Santa-Fe institute, animé, entre autres par Charles Sabel (auteur, avec Michael Piore, du livre « The Second Industrial Divide: Possibilities for Prosperity »). Bref, cela me fait des pistes à creuser et de la lecture en perspective...

Je vais me remettre à la programmation ce week-end pour introduire les quelques améliorations issues de la réflexion de cet été (cf. message de décembre). Un de mes autres objectifs à court terme est de dériver, de ces « avancées » en terme de modélisation, quelques règles/suggestions concrètes en terme de « système réunion ». A suivre