- traduire mon dernier livre en Anglais,
- préparer un explosé pour CAL (Colloque d'Automne de l'X) sur les systèmes complexes.
Le lecteur observateur aura remarqué la similitude avec mon simulateur d'entreprise ... moi aussi. Je me suis dit que j'allais profiter de cette campagne de mesures pour tester certaines hypothèses du "lean management". Le "Lean manufacturing" est du à Taiichi Ohno (1912-1990), un des dirigeants de Toyota qui a révolutionné l'organisation des usines. Je ne vais pas m'étendre aujourd'hui ... je vous renvoie aux livres de Jeffrey Liker (ex: The Toyota Way) ou ceux de James Womack (ex: Lean Thinking). Le point qui m'intéresse est le suivant: le principe lean, du point de vue de l'optimisation des processus, est qu'il faut réduire le lead time en éliminant les temps morts et tâches inutile. Cela se traduit facilement en terme de SI: augmenter le ratio (somme des temps de traitement / temps total de traitement du processus), que je désignerais par "lean ratio".
L'intuition géniale de Taiichi Ohno est d'avoir compris qu'un processus "tendu" est beaucoup plus résistant aux aléas et plus flexible qu'un processus "optimisé du point de vue des ressources".
Cela n'a rien d'évident au premier abord. Je suis très dubitatif devant tous les consultants qui vous parlent de Toyota ou de Lean Six Sigma comme si c'était évident. En fait, cette optimisation du "lead time" se fait au détriment de l'optimisation économique des ressources. C'est donc l'inverse de ce qu'on apprend en cours de recherche opérationnelle sur l'optimisation des taux d'utilisation des machines. Il faut un peu de réflexion personnelle, ou d'expérience, pour comprendre l'intérêt et le fonctionnement du lean.
Bref, l'idée d'utiliser le simulateur de SI pour faire une validation expérimentale m'a semblé interessante. Je ferai un compte-rendu après avoir fait mon exposé, et après avoir collecté l'ensemble des résultats. J'ai comparé différentes situations, avec les mêmes niveaux d'exigences statitiques (SLA respecté dans 90% des cas), mais en variant entre deux extrêmes:
- des SLA faciles avec des ressources optimisées (taux d'utilisation des serveurs entre 80 et 90%, Lean ratio de l'ordre de 10%)
- des SLA plus stricts avec des ressources plus amples (taux d'utilisation de l'ordre de 50% et lean ratio de l'ordre de 50%)
L'approche lean est beaucoup plus robuste aux aléas. Je m'y attendais, mais pas avec l'ampleur que j'obtiens dans mes résultats numériques ! C'est spectaculaire ...
Si l'on regarde de près, c'est assez logique. La distribution statistiques des dispersions suit une loi qui est d'autant plus complexe qu'il y a du "jeu" (asynchronisme) dans le système. Dès que les systèmes sont couplés avec des files d'attentes qui sont souvent remplies, le comportement du système devient difficile à prévoir. On rentre dans une véritable non-linéarité et des petites perturbations peuvent avoir des grands effets.
Au dela du plaisir intellectuel de confirmer l'expérience de Taiichi Ohno, ces expériences sont intéressantes en terme de conception de systèmes d'information, mais ceci est une autre histoire (à suivre dans mon autre blog). En revanche, je vais poursuivre cette piste avec mon simulateur d'entreprise (SIFOA) dès que je m'y remets (probablement en Décembre, il me reste à terminer le travail sur les réseaux d'affiliation). Je pense que la simulation de processus d'entreprise est une voie prometteuse pour expliquer et démontrer le Lean Six Sigma (LSS) en tant que principe d'organisation d'entreprise. En effet, LSS est admis et reconnu dans l'industrie (ne serait-ce qu'à cause de Toyota) mais il est également pertinent dans le monde des services, et dans le monde de la "société de la connaissance". Ce n'est pas encore courament compris, et la simulation pourrait être utile ...
A suivre.
Aucun commentaire:
Enregistrer un commentaire