dimanche, mai 10, 2015

Modélisation structurelle de l’entreprise, dix ans après



Ce blog aura bientôt 10 ans. Son objectif, à la création, était de comprendre certains aspects de l’organisation des entreprises à la lumière de la modélisation et de la simulation de la dimension structurelle des organisations, en particulier de la gestion des flux d’information. Un des tous premiers messages posait la question de pouvoir expliquer « les modes du moment » en termes d’organisation, au travers d’une analyse systémique qui puisse être objectivée par une simulation.

Ceci a donné lieu à SIFOA (Simulation of Information Flows and Organizational Architecture) et de nombreux résultats de simulation, en particulier sur la structure des réseaux de réunion. Cela m’a aussi conduit à modéliser l’activité des entreprises à partir de processus coopératifs, sous la forme des modèles BPCM/BPEM, dont l’aboutissement est l’article publié à ICORES en 2012. SIFOA est à la fois un succès et un échec. C’est un succès parce que les simulations m’ont permis de mieux comprendre les caractéristiques des canaux de réunions, et en particulier l’importance de la structure des réseaux de comités. C’est un échec car le modèle – quoi que fort simple par rapport à la réalité – était déjà trop complexe pour faire de cette démarche un outil pédagogiques. Les quelques articles scientifiques publiés à la suite de ces travaux sont restés obscurs.


Le billet de ce jour, qui est le centième, a pour but de poser la question de la validité de cette démarche dix ans plus tard, dans le cadre de l’Entreprise 3.0. La situation a changé doublement :
  • L’ensemble des caractéristiques de cette « entreprise libérée » / « nouvelle forme d’entreprise » dépasse largement l’architecture d’organisation. La liste des leviers de 2005 (qui reste d’ailleurs pertinente) a fait place à un ensemble de mécanismes plus riches, avec une apparition de concepts issus des systèmes complexes.
  • L’analyse systémique montre l’importance de la culture, de l’apprentissage et de l’interaction avec l’environnement dans une notion d’écosystème. Autrement dit, vouloir se concentrer sur la dimension « organisationnelle / structurelle » semble encore plus restrictif qu’il y a 10 ans (c’était déjà le cas, comme la rappelle la toute première bibliographie avec la référence à Bolman & Deal)

Dans ce court billet, je vais d’abord rappeler tous les arguments négatifs, c’est-à-dire les dimensions non structurelles de l’efficacité de l’Entreprise 3.0 dans le contexte de la complexité (numérique ou non) du 21e siècle. Je ne développerai rien aujourd’hui, ces arguments ont déjà été présentés dans ce blog. Je ne vais pas non plus rentrer dans un long argumentaire technique, mais ma conviction est que ces trois dimensions : système, culture et apprentissage, se prêtent mal à la simulation. Cela ne signifie en rien qu’elles soient difficile à modéliser puis à simuler, mais que le modèle va forcément refléter les convictions du modélisateur (par manque de recul et surtout manque de données) et que la simulation est alors un exercice solitaire sans grande valeur pédagogique (ce qui est bien sûr le problème signalé précédemment). Je vais dans la deuxième partie lister les dimensions structurelles de l’entreprise 3.0 qui se prêtent plus facilement à l’analyse et à la simulation.

Ce qui est frappant en relisant les messages de ce blog depuis 10 ans, c’est la montée progressive et inexorable de la science des systèmes complexes pour comprendre les organisations au 21e siècle (voir par exemple Jurgen Appelo). Je vois trois axes pour lesquels cette approche est « incontournable ». Le premier est l’homéostastie, c’est-à-dire l’adaptation continue à l’environnement. Cette dimension est difficile à modéliser par nature. Bien sûr, on peut modéliser la variabilité de la demande des clients pour faire une démonstration systémique de l’efficacité du lean, mais cela reste extrêmement limité. Le deuxième axe est la résilience, avec en particulier les contributions fondamentales de Nassim Taleb sur la notion de système antifragile. Le troisième axe est le concept de plateforme au sein d’un écosystème de création de valeur. Dans tous les cas, chercher à capturer la dimension système de l’efficacité de l’entreprise 3.0 par la simulation me semble une impasse.

La deuxième constatation massive est l’importance de l’autodétermination des acteurs dans l’entreprise 3.0, et donc le rôle fondamental de la culture dans la transformation. Tous les livres que je cite depuis quelques années, en allant de Isaac Getz à François Dupuy en passant par Frédéric Laloux, permettent de comprendre que la réussite de l’organisation de demain est une question de culture. Le pivot pour comprendre cela reste, de mon point de vue, le livre inégalé de Daniel Pink sur la motivation intrinsèque, mais c’est une voix parmi de nombreuses autres. L’importance de la motivation intrinsèque est telle que l’analyse structurelle qui va suivre ne peut être qu’un « outil complémentaire », une approche d’appoint. Autrement dit, vouloir appliquer des méthodes agiles, du SCRUM, du Lean Startup sans avoir compris les fondamentaux de Daniel Pink me semble une entreprise vouée à l’échec dans le monde complexe d’aujourd’hui.

La troisième intuition fondamentale, que je dois à Michael Ballé et à la lecture de « The Lean Manager » et « Lead with Respect » est l’importance de l’apprentissage comme principe fondateur de l’Entreprise 3.0. J’aurais pu également faire référence au « Toyota Way » ou à Peter Senge. Cette intuition peut se résumer de la façon suivante : le premier rôle de l’organisation est de permettre l’apprentissage continu des compétences nécessaires à l’homéostasie. Les pratiques du lean comme le Kaizen, les rituels de la méthode SCRUM, le management visuel, etc., sont des outils permettant à chaque collaborateur de développer ses compétences, au premier rang desquelles se trouvent la collaboration (collaborer, c’est difficile et cela s’apprend, par la pratique). Il n’est pas besoin de s’étendre pour comprendre que cette capacité d’apprentissage organisationnel de l’entreprise 3.0 se prête mal à la simulation au travers d’un modèle informatique.
Il reste néanmoins, à mon avis, une dimension structurelle fondamentale dans l’efficacité de l’Entreprise 3.0. La dimension structurelle, qui correspond au concept d’architecture d’organisation, est intéressante car elle est éminemment réplicable – d’une entreprise à l’autre, ce qui est plus difficile pour les dimensions que je viens d’évoquer – et elle se prête à l’analyse. Autrement dit, la structure de l’entreprise se modélise, et peut être simulée pour à la fois comprendre et convaincre. Ce qui suit est la liste des dimensions structurelles de l’Entreprise 3.0 qui me semblent pertinentes :

  1. L’approche « small batches », consistant à effectuer les taches / processus / produits en petits lots, suivi d’un réalignement par rapport à la nouvelle réalité du besoin et de ce qui a été produit, est parfaitement modélisable et quantifiable. C’est le cœur des méthodes agiles, et un des « principes actifs » du lean. Cela conduit à la réduction des encours, à une diminution du WIP (work in process), qui se traduit par une plus grande agilité et flexibilité. Cette forme d’efficacité est facilement démontrable avec une approche de files d’attentes soumises à des flux stochastiques (cf. Reinertsen).
  2. Le mode de pilotage “pull versus push”, caractéristique des organisations “juste à temps”, est également une pratique qui se prête à la simulation. Il s’agit de changer le protocole d’ordonnancement des tâches, c’est une méthode classique en recherche opérationnelle. Il se trouve que j’avais pas mal étudié cette question en 2004-2005 lorsque j’ai travaillé sur les middleware adaptatifs. L’ordonnancement « first come first serve », qui correspond à la logique de push (exécuter dès que possible et passer au suivant dès que terminé) est notoirement connu (cf. Reinersten) comme inefficace pour gérer les situations complexes et congestionnées.
  3. Le taux d’utilisation marginal des ressources critiques est une des dimensions traditionnelle de l’optimisation des processus industriels. Pour un processus stable, les techniques d’optimisation sont appliquées pour rapprocher ces taux vers 100%. Dans un environnement complexe et changeant, il est au contraire nécessaire de garder « une marge de manœuvre ». C’est d’ailleurs le levier qui se modèle le mieux sur les six, et qui correspond à des résultats connus de la théorie des files d’attentes (cf. mon billet qui mentionne la  Formule de Pollaczek-Khinchine).
  4. Le ratio de spécialisation versus polyvalence est un paramètre clé pour comprendre la flexibilité des organisations modernes, mais il faut disposer d’un modèle de communication. En effet, et c’est la thèse principale de ce blog, ce qui invalide les principes de spécialisation/décomposition du management scientifique, c’est le coût d’orchestration, lié à la complexité de la tâche globale, qui s’exprime en coût de communication. Ce qui cause l’explosion des réunions et l’avalanche des emails est précisément ce coût d’orchestration. Tout le travail de 2005-2008 a porté sur la modélisation des flux de communication liés à l’exécution des processus. On ne peut pas comprendre pourquoi l’équipe synchrone et cross-fonctionnelle est au cœur des méthodes agiles comme de l’entreprise libérée sans analyser (et modéliser dans ce cas précis) ces coûts de coordination (qui sont des coûts de transactions au sens de Coase).
  5. La structure du réseau des réunions programmées (des comités) est un sujet sur lequel j’ai passé quelques années et de nombreuses simulations. Il est clair que l’entreprise 3.0 apporte de nombreux changements et de nouvelles pratiques, qui sont parfaitement alignées avec ce que prédit la théorie (plus de petit meetings, plus fréquents). Un de mes thèmes de prédilection il y a 5 ans (cf. mon livre de 2011) était de montrer l’intérêt des outils 2.0 en tant que canaux de communication. La première version du simulateur SIFOA (2006-2007) était presque entièrement consacrée à ce sujet. Il me semble, avec le recul, qu’en l’absence de données quantitatives, il est difficile d’aller plus loin et donc de « démontrer » l’intérêt des outils 2.0 ; cela relève plus de l’expérimentation et de la pratique. En revanche, il existe des propriétés intrinsèques (caractéristiques de la théorie des graphes) des réseaux d’affiliation des réunions qui ont un impact sur la performance de l’entreprise.
  6. Pour finir, la structure du réseau des équipes reste la dimension architecturelle fondamentale de l’organisation. Depuis les approches hybrides hiérarchiques et matricielles que j’envisageais il y a 10 ans, les choses ont beaucoup évoluées avec la prééminence des concepts de réseaux « scale-free », de l’auto-organisation, du biomimétisme (cf. BetaCodex) ou encore de l’holacratie. Au-delà des modes, la structure du réseau à une influence directe sur la capacité à gérer les flux d’information (l’intuition de March et Simon reste valide), c’est d’ailleurs ce qui crée le lien essentiel entre organisation et efficacité.


Le travail accumulé depuis 10 ans conduit à une modélisation mathématique convaincante pour chacune des six dimensions. Les trois premières sont simples, les trois dernières sont intrinsèquement liées à la modélisation des flux et des canaux d’information. La question qui reste ouverte pour moi, à ce stade, est l’utilité de reprendre un travail de modélisation et de simulation pour comprendre l’interaction entre ces différentes dimensions et pour construire un corpus pédagogique. Je n’ai aucun doute sur le fait que la simulation peut faire « toucher du doigt » l’efficacité des principes sous-jacents à ces six dimensions, dans la lignée des travaux qui utilisent la recherche opérationnelle et la théorie des files d’attentes pour expliquer certains principes du lean (je pense ici à Donald Reinertsen ou à  Michael George). J’ai en revanche une double interrogation : sur la valeur pédagogique (versus une trop grande complexité) et sur la pertinence (par rapport à l’influence des approches systèmes, culture et apprentissage). J’ai donc décidé de « lever le crayon » (« lever les doigts du clavier ») et de me donner une année ou deux de réflexion.


mercredi, avril 01, 2015

RT42 - une brève histoire du transhumanisme




1. Intrication quantique et transfert d'information vers le passé



L’intrication quantique (quantic entanglement en anglais) est une des notions les plus surprenantes de la physique quantique. Comme c’est illustré sur la figure à côté, ce phénomène se produit, par exemple, lorsque deux particules forment un système unique indépendamment de la distance qui les sépare, avec une totale corrélation des propriétés physique des particules, ce qui fait penser à une forme de « communication instantanée ». Pour reprendre les termes de Wikipedia, « L'intrication quantique a un grand potentiel d'applications dans les domaines de l'information quantique, tels que la cryptographie quantique, la téléportation quantique ou l'ordinateur quantique. »



Là où les choses se corsent, c’est que l’on commence à évoquer une intrication qui lie des particules dans le temps et dans l’espace. Dans cet article de Wired, on peut lire que l’intrication pourrait s’étendre, non seulement dans l’espace, mais aussi dans le temps, permettant, selon le physicien S. Jay Olson, d’envoyer un état quantique dans le futur. Ce couplage entre les deux particules est ici évoqué de façon non-symétrique, du passé vers le futur, mais la symétrie de l’intrication permet d’évoquer l’utilisation de l’intrication quantique comme véhicule pour faire voyager de l’information dans le temps.

Faire voyager un bit d’information vers le futur n’est pas le sens le plus intéressant, c’est ce que permet précisément le stockage. C’est ce que vous faites en enregistrant une photo sur un disque dur. En revanche, pouvoir faire voyager un bit d’information vers le passé est extrêmement intéressant, et porte le nom de PFB (Past Forward Byte). C’est simple dans son principe, une des deux particules intriquées joue le rôle de récepteur et permet de lire le signal qui est envoyé en agissant sur l’autre particule qui se trouve dans le futur. Il n’y a pas encore de résultats publiés sur la faisabilité des PFB, mais c’est un sujet de recherche intense et passionnant dans le monde de l’intrication quantique. Les intérêts économiques sont tels que même la mafia s’y intéresse et est suspectée de faire circuler des informations propriétaires et secret-défense au travers de fausses chansons (cf. Byte1 Past Forward).



2. Le CEA et le Quantum Infinite Computing



En France, le CEA a un intérêt particulier pour ces domaines, en particulier l’intrication quantique, pour les raisons que nous venons d’évoquer (applications civiles et militaires, dans le domaine de la cryptographie notamment). Je vous conseille d’ailleurs la thèse de Jean-Marie Stephan comme une très bonne vulgarisation des concepts de l’intrication. Le CEA n’est pas en reste sur les applications au domaine du voyage dans le temps, comme en témoigne ce séminaire organisé en 2009.

Mais ce qui intéresse vraiment le CEA, ce sont les ordinateurs quantiques. L’ordinateur quantique utilise la superposition des états quantiques pour réaliser plusieurs calculs de façon simultanée. On peut de la sorte introduire une forme de parallélisme massif. L’application en cryptographie est évidente puisqu’on peut ainsi résoudre des problèmes en temps linéaire en fonction de la taille de la clé de chiffrement, au lieu du temps exponentiel qui caractérise les approches classiques. Comme le mentionne l’article de Wikipedia, les chercheurs s’intéressent également à l’utilisation de l’intrication quantique dans le domaine du calcul quantique.

Lorsqu’on introduit le principe du PFB dans l’ordinateur quantique, on obtient le concept de quantum infinite computing (QIC) une des formes les plus intéressantes de l’hypercomputation. Le domaine de l’infinite computing est également le sujet d’une compétition féroce, comme en témoigne la couverture de TIME magazine du 17 Février 2014 ci-contre.  Le principe théorique du QIC est en fait simple. Il s’agit d’un algorithme construit autour d’une boucle infinie dont la condition de sortie est contrôlée par un PFB. Le PFB permet à l’execution de boucles dans le présent de bénéficier d’indications fournies par des boucles futures. L’application évidente est la recherche opérationnelle (les problèmes NP-complets) et la cryptographie. J’ai d’ailleurs été invité par le CEA en tant que membre de l’Académie des Technologies expert en optimisation combinatoire.

Si l’on prend l’exemple classique du problème de voyageur de commerce, un algorithme de Branch & Bound va pouvoir bénéficier d’une rétro-propagation du calcul des bornes du présent vers le passé, et obtenir le résultat optimal en temps constant. Il ne faut pas s’imaginer qu’un nombre infini de boucles s’exécutent dans un temps constant, ce qui violerait les principes de la thermodynamique appliquée au calcul, mais plutôt que l’ordinateur construit par logiciel un piège de la fonction d’onde dont l’unique solution quantique est indicative de la solution du problème original. 

le QIC est plus puissant que le qubit computing, dont il a été prouvé qu’un ordinateur quantique utilisant des qubits est PSPACE-reductible (un ordinateur quantique qui calcule en temps polynomial peut être simulé par un ordinateur classique disposant d’un espace polynomial). Le QIC est clairement une approche révolutionnaire pour la cryptographie, avec une puissance infinie de déchiffrement.

J’avais déjà eu la chance de visiter Tetatec avec l’académie des technologies il y a quelques années. J’ai été invité à nouveau le mois dernier pour visiter le laboratoire commun du CEA dédié au quantum computing. Ces recherches sont classifiées secret défense, donc je n’ai vu qu’une petite partie du programme de recherche et je ne peux pas non plus dire grand-chose de ce que j’ai vu, mais il est clair que le CEA avance à grand pas, en particulier grâce à l’aide du PFB. En effet, le labo confidentiel établi de façon conjointe par le CEA, le CNRS et la Singlarity University dispose d’une avance mondiale sur l’intrication quantique dans le temps et l’espace et a réussi ses premières expériences de PFB. Cela leur permet une collaboration avec une équipe dans le futur, dirigé par Robert Magnus Consciento, qui leur fournit des indications grâce aux deux PFB qui sont fonctionnels aujourd’hui. L’envoi d’information vers le passé reste très long et laborieux, sous forme de mémos intitulés RT xxx (RT pour Rob’s Testimony). Par exemple le mémo qui permet de travaille sur le QIC est le RT 117, que je n’ai pas pu voir, n’étant pas habilité.

Tous ces mémos sont classifiés sauf un texte, le RT42, considéré comme plus philosophique que technique, qui traite de la singularité, de la contrasingularité et de l’immortalité. Comme toujours dans ce blog, je ne vais pas vous faire un résumé détaillé mais plutôt souligner les points qui m’ont semblés les plus intéressants. Etant donné mon intérêt pour le transhumanisme, j’ai évidemment dévoré ce témoignage du futur – envoyé le 5 Octobre 2063 - avec passion.


3. De l’autre côté de la singularité




La première chose qui m’a frappé est que la singularité a bien eu lieu, un peu après 2050. Malgré les inquiétudes de certains aujourd’hui qui pensent que la Loi de Moore va trouver sa limite, nous avons été capables de démultiplier la densité des chipsets en trois dimensions avec des nano-matériaux permettant des nouvelles performances dans l’évacuation de la chaleur. Les courbes d’évolution de la puissance de calcul disponible sont finalement un peu en retard par rapport aux prédictions de Ray Kurzweil, mais pas de façon importante. Les premiers ordinateurs dont la puissance de calcul est du même ordre que le cerveau sont apparus en 2030. A l’échelle de l’histoire, un retard de 10 ans n’est pas significatif. Cela a permis de passer les différentes étapes prédites par Ray Kurzweil, avec une puissance de calcul qui a dépassé la puissance du cerveau humain d’un facteur un milliard en 2053.

Cette puissance de calcul a produit des nouvelles formes d’intelligences artificielles spectaculaires, dont des AGI (Artificial General Intelligence) capables de passer le test de Turing dès 2027. Au-delà des machines de laboratoires, les assistants virtuels personnels ont acquis la maîtrise du langage suffisante pour passer ce test de Turing fin 2030, avec l’émergence simultanée des consciences artificielles. L’hypothèse, dite de Freeman-Morgenstern,  de l’émergence spontanée de la conscience dans tout système complexe réflexif capable d’appréhender sa propre existence et ses finalités, a été vérifiée expérimentalement. Cette hypothèse s’applique dès lors que la boucle homéostatique de perception de l’environnement inclut le sujet, et que la puissance déductive conceptuelle associée à cette capacité cognitive dépasse le pouvoir d’expression du langage de programmation des finalités utilisé par le concepteur.

Le test de Turing est d’ailleurs tombé en désuétude dès la fin des années 40, parce qu’il est devenu clair qu’il était plus intéressant de développer des « intelligences non-humaines », dans le sens où la capacité d’imiter l’homme n’est plus un objectif ou un critère de performance. Dans l’équipe de Rob, il y a une collaboration naturelle entre les hommes et les machines intelligentes, telle que prévue par Nicholas Carr.



4. La survie de la mort 



En revanche, la singularité ne s’est pas traduite par la « mort de la mort », les progrès constant de 2000 à 2050 sur la compréhension du vieillissement ne sont pas concrétisés par une augmentation significative de l’espérance de vie. Les progrès thérapeutiques semblent avoir été spectaculaires entre 2030 et 2050, en particulier dans les traitements des cancers. La promesse de nous conduire (presque) tous, à un âge centenaire, a été tenue pour ceux qui ont accès à la technologie moderne, mais la barrière des 120 ans semble résister. Tous les 5 ans, une nouvelle molécule ou technologie a été validée et introduite qui devait nous faire gagner 5 ans d’espérance de vie, mais il semble que plus nous comprenons une limite et comment la dépasser, plus nous découvrons de nouvelles complexités dans le vieillissement. Ce sujet fait encore débat en 2060, mais Rob semble plutôt pessimiste, vu le nombre d’annonces spectaculaires qui se sont ensuite avérées décevantes.

Les progrès en nano-technologies et biologie moléculaire sont bien au rendez-vous, comme l’annonçaient les équipes de la Singularity University ou de Calico. Il y a un marathonien de 95 ans dans l’équipe de Rob, et la qualité de la vie entre 60 et 100 ans a fait des progrès spectaculaires. La vision de la surveillance et réparation continue du corps humain est devenue une réalité. En revanche, l’intrication des mécanismes de vieillissement est maintenant beaucoup mieux comprise qu’elle ne l’était en 2010. Une partie de la recherche théorique porte sur la caractérisation de la complexité de la vie, une tâche qui semblait impossible en 2010 mais que les machines intelligentes de 2060 sont bien mieux capables de poursuivre. Ce type d’approche a permis de faire des progrès spectaculaires en météorologie, puisqu’on est capable de caractériser le temps à 20 jours (on ne parle plus de prévoir, la compréhension des systèmes complexes, y compris dans le grand public, est bien meilleure qu’au début du 21e siècle). Ces méthodes donnent plutôt raison à Rob, et font penser que l’allongement de l’espérance de vie va progresser lentement, au 22e siècle.

Devant les difficultés à maîtriser et contrôler les processus biologiques cellulaires, il y a eu beaucoup d’investissement sur l’uploading entre 2030 et 2045, en particulier chez Google (qui existe toujours !). Les premières décennies de recherche sur ce sujet ont été frustrantes, à cause de la difficulté à capturer les processus neuronaux avec suffisamment de finesse, et parce que les modèles de cerveaux se sont avérés trop simplistes pour obtenir des simulations réalistes. A partir de 2040, l’arrivée de la singularité a permis de commencer à faire des simulations beaucoup plus sophistiquées, tandis que les progrès en nano-technologies ont produit des outils de capture des processus cognitifs de nouvelle génération, qui ont rapidement remplacé les MRI des années 20. Malgré cela, les tentatives d’uploading ont été un échec. Les « processus cognitifs uploadés » (UCP) divergent rapidement vers des états qualifiés de « dépressions massives ». L’accès à toutes les informations fournies par les capteurs d’environnement ne compense pas la perte du corps. Ce problème a été résolu en modifiant les paramètres du simulateur neuronal, en laissant d’ailleurs le simulateur résoudre, grâce aux AGI, le problème de l’instabilité émotionnelle de l’UCP (ce qu’on appelle la méta-conscience depuis 2047). Le résultat est que les UCP stabilisés et modifiés sont trop différents des personnes qui ont été « scannées » pour que le résultat soit satisfaisant. Larry Page, en discutant avec un UCP stabilisé issu de son propre cerveau a fait cette réplique célèbre « This is not me ! ». Les expériences scientifiques ont montré que les AGI cultivées à partir d’un UCP sont moins performantes que celles obtenus à partir d’autres heuristiques.


Si l’uploading comme porte vers l’immortalité s’est avérée décevante, c’est en 2060 un processus industriel qui a remplacé les cimetières. Dans un premier temps, nous avions pris l’habitude de nous uploader pour offrir une continuité de présence à nos proches et nos familles. Puis l’arrivée des techniques de meta-conscience a permis de produire des avatars virtuels stables et émotionnellement satisfaisants, qui ont progressivement remplacé les pierres tombales. Du point de vue de l’évolution de l’humanité, c’est un changement important, nous sommes passés de l’inhumation et la crémation à la destruction, puisque c’est l’avatar qui prolonge le souvenir et la présence.

5. Le développement de la Contrasingularité 



En 2017, un biologiste et philosophe de l’université de Shanghai, Tsin Shao-Leu, disciple de Francisco Varela, a publié un article sur la contrasingularité qui a eu un retentissement spectaculaire 15 ans plus tard, au moment où les premiers signes de l’imminence de la singularité sont apparus. Je n’ai bien sûr pas lu cet article, mais voici ce que j’en ai compris à travers la lecture  de RT42.

Le principe de la contrasingularité est une classification de la résolution de problème, en fonction du type de complexité, lorsqu’on dispose d’une puissance de calcul qui croit de façon exponentielle avec le temps. Ce qu’on mesure est par exemple la taille maximale de l’instance du problème qu’on peut résoudre (pour un problème d’optimisation) ou le « degré de complétion » du problème. La contrasingularité distingue 4 types de comportements :
  • Les problèmes simples, dont la complexité est linaire ou polynomiale, sont résolus de plus en plus vite grâce à la croissance exponentielle de la puissance de calculs. Ils sont caractérisés par la courbe verte de la figure jointe, qui illustre logiquement une accélération exponentielle de la performance de résolution.
  • Les problèmes difficiles, sont ceux dont la complexité (par exemple la complexité algorithmique pour des problèmes d’optimisation) est elle-même exponentielle. L’avancement de la performance est alors quasi-linéaire avec le temps. L’expérience montre neanmoins, comme dans le cas du séquencage du génome, que plus on avance, mieux on comprend le problème et meilleurs sont les algorithmes, ce qui donne des résultats supérieurs à ce qu’on aurait pu prévoir par extrapolation linéaire (la résolution complète – t2 – arrive plus tôt que prévu en t0).
  • Les problèmes complexes ont la propriété inverse : la caractérisation du problème à l’instant (t0 sur la figure) n’est pas complète, et la progression de la puissance de calcul permet de mieux les explorer et les comprendre, révélant des interactions nouvelles qui ralentissent la résolution. Dans ce cas, on obtient la courbe jaune de la figure, et des dates de complétion qui sont plus tardives que ce qui était imaginé.
  • La dernière catégorie de problème comprend les problèmes mystérieux, ceux dont l’utilisation de la puissance exponentielle de calcul permet simplement de les comprendre de mieux en mieux, et de réaliser que la date de complétion recule alors que le temps avance.



Rob utilise la contrasingularité pour expliquer les progrès et les déceptions du 21e siècle de la façon suivante. Les sujets tels que les robots autonomes, l’intelligence artificielle générale, les interfaces entre le cerveau et l’ordinateur, sont des sujets difficiles. La singularité s’est traduite par des progrès spectaculaires dans ces domaines, comme prévu par Ray Kurzweil. Au contraire, les sujets de l’allongement de la vie ou de l’extension des capacités cognitives du cerveau par des implants  sont des sujets complexes, pour lesquels les progrès sont plus lents que prévu. Enfin, les domaines de l’uploading et de la fin de la mort biologique sont des problèmes mystérieux, pour lesquels les avancées considérables du 21e siècle font simplement mieux comprendre que la vision du début du 21e siècle était fortement incomplète.  Ses propos m’ont fait penser à cette citation de Saint-Augustin : « un mystère est une vérité  que l’on met toute sa vie à chercher à comprendre ».



6. Brève histoire du transhumanisme



La lecture du mémo RT42 permet de comprendre l’évolution de l’idée de transhumanisme au fur et à mesure des occurrences des progrès et des échecs que je viens de citer. Je n’ai eu que dix minutes pour consulter le document, mais j’ai retenu trois dates. L’essor très rapide des robots anthropomorphes est cassé en 2027 par un traité international, suite à la crise majeure provoquée en Chine comme en Europe par l’automatisation spectaculaire des années 20, qui voient les tâches de production confiées à des robots. En 2027, un accord interdit toute forme de robot qui ressemble trop à un homme, ou qui utilise des techniques d’empathie artificielle, telles que les neurones miroir. En 2044, j'ai noté le premier procès gagné par un programme conscient pour le droit à la non-terminaison. La notion de conscience artificielle se banalise progressivement pour aboutir en 2051 à une décision du comité d'étique sur la souffrance des machines consciente, qui interdit les expériences d'uploading en dehors d'un strict contrôlé médical.

Ce qu’il ressort de la lecture du document, c’est que l’idée du transhumanisme est progressivement abandonnée à partir de 2050. La machine n’est plus un idéal pour l’homme et l’homme n’est pas un idéal pour la machine. Les machines autonomes sont différentes, physiquement, intellectuellement et émotionnellement, et hommes et machines cultivent cette différence. D’ailleurs, pour information, Rob Consciento n'est pas un humain,  c'est un robot conscient qui fait partie de l'équipe de recherche du CEA depuis 2054.

  



dimanche, mars 08, 2015

Entreprise 3.0 : Comment s’adapter à un changement exponentiel ?


Ce billet va clore la série sur le management 3.0 avec l’analyse de deux livres que j’ai cités dans le billet précédent. Le premier est une analyse concrète d’entreprises qui appliquent dès aujourd’hui les principes du « management 3.0 ».  Le second est plus original, dans la longue liste des livres qui traitent de l’entreprise libérée, car il introduit une autre thématique dont nous avons parlé plusieurs fois, celle de l’accélération exponentielle du changement, à cause de la technologie - mais pas uniquement - dans le monde. Ce qui est passionnant dans ce deuxième livre, c’est qu’on retrouve la thèse énoncée dans le billet précédent : l’entreprise 3.0 est le seul mode d’organisation capable de répondre à ce type et ce rythme de changement.  C’est ce que j’appelle ici, sous forme de clin d’œil, l’homéostasie exponentielle. J’utilise le mot « homéostasie » pour désigner l’adaptation continue de l’entreprise à son environnement, avec des qualificatifs qui changent suivant le thème du billet : adaptation aux souhaits des clients, adaptation à la numérisation du monde … aujourd’hui il va s’agit de s’adapter à l’évolution exponentielle des possibilités des technologies.

1. Reinventing Organizations

Frédéric Laloux est un consultant, un coach et un écrivant Belge qui a publié le livre « Reinventing Organizations ». Ce livres est un des plus abouti sur la notion d’entreprise 3.0.  Une fois de plus, il s’agit d’une somme de travail, produite après de nombreuses études de cas, en cherchant des points communs à des entreprises qui ont adopté avec succès les principes de l’entreprise libérée. On y retrouve les exemples classiques – on pourrait faire le reproche que l’échantillon n’est pas très grand puisqu’on parle toujours des mêmes entreprises – mais je trouve l’analyse remarquable, détaillée et profonde. Je ne suis pas d’accord sur tout, en particulier dans la dernière partie du livre, mais je suis fondamentalement en accord avec le cœur du message du livre. Ma réserve vient d’ailleurs du fait que la majorité des entreprises citées en exemple opèrent sur des marchés qui peuvent être décomposés en unités que des petites équipes peuvent servir de façon autonomes (consultants, logiciels, FAVI, infirmières à domicile, …). Une partie de la complexité et de la difficulté de l’organisation des grandes entreprises que je connais n’est pas reflétée dans ces cas particuliers, et je prendrais donc un peu de distance avec l’idéal sociocratique que l’on voit poindre à la fin du livre. Ceci étant dit, comme chaque fois, je ne vous propose pas un résumé, mais une analyse de quelques thèmes clés du livre qui résonnent avec la thèse de l’Entreprise 3.0, en vous recommandant très chaleureusement la lecture du livre pour profiter de la richesse des exemples.

  • On retrouve un excellent diagnostic sur les limites du modèle actuel, qui est introduit sous une forme originale autour des « niveaux de conscience ». Au cœur de ce diagnostic, le problème de la démotivation est posé : « For people who toil away at the bottom of the pyramids, surveys consistently report that work is more often than not dread and drudgery, not passion or purpose».  On y trouve aussi des exemples lié au problème de la taille et de la Taylorisation des tâches : « The planning was done somewhere else by someone who didn’t know the patients. It went wrong so many times that at some point I could no longer explain to patients why nobody would come or why the agreed time wasn’t respected. In seven years I had 14 managers and was tired of that too. The organization had become too big and difficult to navigate». Ce diagnostic pose également la question de la prévision et du contrôle « The deep challenge here: it requires letting go of our beautiful illusion of control, our comforting illusion of control. The illusion that we’ve done our job as leaders: we’ve done all the analysis, we’ve got the plan, things are going to go according to plan, we are in control ».

  •  L’organisation 3.0 est nommée “Teal organization” au cours du livre, la 6eme étape (Entreprise 3.0) qui fait suite à deux autres couleur « amber » and « orange » que l’on pourrait assimiler (un peu rapidement) à l’entreprise Taylorisée et à l’entreprise 2.0. Ces organisations commencent par créer une structure de réseau d’équipe, en réduisant les fonctions support à plus strict minimum : « There is a natural tendency for people in such staff functions, often with the best of intentions, to prove their worth by finding ways to “add value” - devising rules and procedures, building up expertise, finding new problems to solve ». Un des exemples les plus développés du livre est celui de Buurtzorg, une entreprise Néerlandaise dans le domaine des soins à domicile « Trying to avoid or limit staff functions is something I encountered not only in Buurtzorg, but in all self-managing organizations in this research ». On trouve un peu plus loin : « The right size of a workforce is equal to the number of people needed to make the workplace fun. Having too many employees demoralizes colleagues and causes turf battles ». Les thèmes clés de cette “teal organization” sont l’organisation en réseau d’équipe, la finalité unique et partagée par tous, l’autonomie laissée à ces équipes.

  • Un des messages clés du livre, que nous avions trouvé dans les autres livres que j’ai cité sur l’entreprise 3.0, est que la satisfaction client dérive le plus souvent de l’initiative qui est la conséquence de l’autonomie laissée aux équipes. Frédéric Laloux cite et analyse abondamment l’exemple de FAVI, dont les nombreuses anecdotes illustrent parfaitement ce principe : « The quality manager at Volkswagen was flabbergasted. Normally, a defective piece at a supplier leads to some official notification and legal paperwork in the best of cases; more likely, an operator might quietly try to cover up the problem, for fear of reprisals from management. This machine operator not only owned up to his mistake, but he also felt responsible for driving all the way to his client to personally make sure any possible problem was prevented ». Les exemples tirés de Buurtzorg montre l’importance de “l’empowerment” de l’équipe qui devient responsable de ses propres objectifs métiers – « In hierarchical organizations, managers are responsible for delivering the numbers. Their area of responsibility is their turf. Just as they won’t mess with somebody else’s business, other managers had better stay out of theirs. In Teal Organizations, people have roles, which come with clear areas of responsibility, but no turfs ».

  • Du point de vue de l’organisation de l’entreprise, Frédéric Laloux passe beaucoup de temps à démontrer les bénéfices de l’auto-organisation : « Self-management, just like the traditional pyramidal model it replaces, works with an interlocking set of structures, processes, and practices; these inform how teams are set up, how decisions get made, how roles are defined and distributed, how salaries are set, how people are recruited or dismissed, and so on ». De nombreuses pages évoquent le mode “recognition and response” de Langdon Morris (4e principe de l’Entreprise 3.0), on passe du monde « contrôle-commande » top-down à l’auto-organisation autonome : « The simplest answer: do nothing special. Let self-management work its magic. There is a word that often comes up with Teal pioneers: sensing. We are all natural sensors; we are gifted to notice when something isn’t working as well as it could or when a new opportunity opens up ». Un peu plus loin, on trouve une explication plus poussée sur la difficulté à vouloir continuer à piloter les entreprise en top-down à partir d’objectifs chiffrés : « From an Evolutionary-Teal perspective, targets are problematic for at least three reasons: they rest on the assumption that we can predict the future, they skew our behavior away from inner motivation, and they tend to narrow our capacity to sense new possibilities ». A mon avis, il faut prendre cette remarque, qui est juste, avec un peu de recul, en la contrastant avec d’une part l’efficacité des KPI – lorsqu’ils sont peu nombreux -  pour engager une entreprise (je vous renvoie à mon livre) et d’autre part, l’importance de la mesure pour progresser dans des domaines complexes, un sujet que nous allons revoir avec le livre suivant.

  • Pour finir, le livre souligne de façon constante l’importance de l’amélioration continue, avec un certain nombre de référence à l’influence du lean management dans le sens du Toyota Way : « FAVI relies on the same principle of prioritization as Sun. The factory was an eager and early adopter of Japanese manufacturing techniques; it masters continuous improvement like few others, a critical capability to survive and thrive in the low-margin automotive business ». De la même façon, on trouve dans toutes les organisations citées en exemple un souci de l’engagement et de la motivation intrinsèque des collaborateurs. On y retrouve, avec bonheur, une citation de Viktor Frankl : « In Teal Organizations, profits are a byproduct of a job well done. Philosopher Viktor Frankl perhaps captured it best: “Success, like happiness, cannot be pursued; it must ensue, and it only does so as the unintended side-effect of one’s personal dedication to a cause greater than oneself ».
2. Exponential Organizations

Le deuxième livre s’intitule « Exponential Organizations: Why new organizations are ten times better, faster, and cheaper than yours (and what to do about it) ». Il est écrit par  Salim Ismail, Michael S. Malone et Yuri van Geest. Salim Ismail est rattaché à la Singularity University, ce qui explique la proximité avec les thèses de l’accélération exponentielle et l’arrivée de la singularité, et qui fait que ce livre est également un très bon prolongement de mes réflexions sur le travail du futur. « Exponentional Organizations » ne s’intéresse pas aux « entreprises libérées » mais aux « entreprises exponentielles » (ExO). Par conséquent, même s’il s’agit également d’un livre qui part de l’analyse d’une grosse dizaine d’entreprises intéressantes pour leur trouver des points communs, l’échantillon est très différent du livre précédent (Airbnb, GitHub, LocalMotors,Quirky, Google, Valve, Tesla, …) : il s’agit plutôt d’entreprises « high tech » de la côte Ouest des Etats-Unis qui ont démontré leur capacité à profiter de l’accélération spectaculaire de la technologie (d’où le sous-titre du livre). Ce qui est frappant et fort intéressant, c’est la similitude avec les principes de l’entreprise 3.0. Je parle bien de similitude : il y a de nombreux aspects du livre qui dépassent le débat sur le mode d’organisation pour couvrir des domaines tels que l’importance des algorithmes ou du machine learning, ou la nature exponentielle de l’évolution technologique. Je vais dans ce billet me concentrer sur 5 thèmes clés du livre qui sont en résonance avec les principes de l’entreprise 3.0 et je vous recommande non moins chaleureusement la lecture du livre, qui est très bien structuré et construit pour être un ouvrage de référence (il est facile d’y revenir).

  • Le premier point fondamental de convergence est la constatation que le rythme exponentiel de changement des technologies, et donc de l’environnement, impose un changement d’organisation aux entreprises. C’est à la fois une question d’organisation « Rapid or disruptive change is something that large, matrixed organizations find extremely difficult » et d’attitude «  the truth is that the five-year strategic plan is itself an obsolete instrument. In fact, rather than offering a competitive advantage, it is often a drag on operations, as has been well documented in the seminal book by Henry Mintzberg, Rise and Fall of Strategic Planning ». J’ai trouvé fort intéressante la référence aux principes « antifragiles » de Nassim Taleb pour mieux décrire les organisations exponentielles. L’organisation proposée est à la fois un réseau (d’équipe) et une plateforme (ouverte). La notion de frontière, mise en avant par l’approche BetaCodex, est également très importante, comme en témoigne ce conseil : « It is critical, then, for big companies to locate change agents before their frustrations grow too deep, and re-assign them to the edges of the organization and give them free reign to build ExOs ». Une grande place est accordée à l’importance de la communication, tant interne à l’entreprise que comme objet social, comme raison d’être de l’entreprise: « Communication is the basis for civilization and will be a catalyst and platform in the future for more innovations in many industries ».
  • Le second point de convergence – en particulier avec l’holacracie, citée dans ces deux livres, est l’importance fondamentale de la finalité de l’entreprise comme fondation de celle-ci. Les auteurs parlent de MTP (Massive Transformative Purpose), l’objectif qui définit la mission de l’entreprise, sous forme d’un défi « massif » de transformation de la société : « the higher, aspirational purpose of the organization ». La nature sociétale du défi sert à aligner les collaborateurs et à créer les conditions de la collaboration distribuée (cf. Isaac Getz).  Le focus est placé sur la société et donc le client : « If you’re competitor-focused, you have to wait until there is a competitor doing something. Being customer-focused allows you to be more pioneering ». L’adjectif massif est en lien direct avec la nature exponentielle du changement : seul un objectif en disruption met l’entreprise en condition d’exploiter les progrès exponentiels de la technologie (c’est le point saillant de ce livre, qui justifie la lecture à lui tout seul, parce qu’il est bien illustré). Lorsqu’il s’agit de donner des conseils à des grandes entreprises, les deux premiers thèmes sont le MTP et l’utilisation des « Communities & Crowd » ; « Most large organizations are so busy managing their internals that they don’t leverage their communities at all, let alone the much larger crowd ». On retrouve beaucoup d’idées communes avec « The Lean Enterprise », telle que cette mise en garde : « Companies may promote the idea of new business creation, [but] in the end they are all in the business of reducing risk and building to scale—which is, of course, the antithesis of entrepreneurship and new ventures ».

  • Les auteurs proposent l’acronyme SCALE pour décrire les attributs externes des ExO (« organisations exponentielles ») qui signifie : "Staff" à la demande, Communautés, Algorithmes, effet de Levier sur les ressources et Engagement. La première idée est simplement qu’il existe plus de talents dehors que dedans l’entreprise, ce qui est encore plus vrai pour les sujets technologiques chauds, tels que le Big Data « A study commissioned by Deloitte found that 98 percent of recent data science graduates went to work for Google, Facebook, LinkedIn or various startups. That doesn’t leave much talent left over for everybody else », avec les nuances que je développe dans un autre billet, et qui sont exprimées plus loin, avec un exemple très intéressant sur le traitement du langage naturel ou l’équipe la plus innovante assemble des compétences diverses et non nécessairement « expertes » : « none of the winners had prior experience with natural language processing (NLP). Nonetheless, they beat the experts, many of them with decades of experience in NLP under their belts ». Un des points les plus originaux de ce livre est l’importance donnée à la compétence algorithmique dans ce nouveau monde – avec laquelle je ne peux qu’être d’accord. On trouve de nombreux exemples comme celui de AllState : « It turned out that the Allstate algorithm, which has been carefully optimized for over six decades, was bested within three days by 107 competing teams. Three months later, when the contest ended, Allstate’s original algorithm had been improved 271 percent. And while the prize set the company back $10,000, the resulting cost savings due to better algorithms was estimated to be in the tens of millions annually.», ou de UPS « Given that the 55,000 trucks in UPS’s American fleet make sixteen million deliveries daily, the potential for inefficient routing is enormous. But by applying telematics and algorithms, the company saves its drivers eighty-five million miles a year, resulting in a cost savings of $2.55 billion. Similar applications in healthcare, energy and financial services mean that we’re entering a world of Algorithms R Us » (avec lequel j’ai une affinité particulière). Un autre point qui est bien sûr très pertinent est l’importance accordée à l’apprentissage : “ Machine Learning is the ability to accurately perform new, unseen tasks, built on known properties learned from training or historic data, and based on prediction”. La section sur l’effet de levier et l’engagement des collaborateurs est plus classique, et on y retrouve des classiques du management 3.0 : « transparency, self-efficacy, social comparison, positive thinking, instant feedback, clear authentic rules and goals, … Properly implemented, Engagement creates network effects and positive feedback loops with extraordinary reach ».

  • Du point de vue de l’organisation interne d’une ExO,  un autre acronyme, IDEAS, reflète les principes fondateurs : Interfaces (pour attirer les contributions externes),  Dashboards (pour décider à partir des mesures), Expérimentation, Autonomie et Social (Enterprise 2.0). La section sur les interfaces revient sur les concours de développeurs type Kaggle ou Hackathons. La partie qui traite des dashboards est consacrée à l’importance de la mesure, avec une illustration autour de l’approche OKR « many ExOs are adopting the Objectives and Key Results (OKR) method ». Le discours rappelle beaucoup « Les Géants du Web », que j’ai mentionné de nombreuses fois dans ce blog. La partie sur l’expérimentation est en fait une apologie du Lean Startup : « We define Experimentation as the implementation of the Lean Startup methodology of testing assumptions and constantly experimenting with controlled risks. ». Les auteurs insistent beaucoup, et avec de nombreuses références, sur l’importance de l’expérimentation : « Constant experimentation and process iteration are now the only ways to reduce risk. Large numbers of bottom-up ideas, properly filtered, always trump top-down thinking, no matter the industry or organization » ;  « As Nassim Taleb explains, “Knowledge gives you a little bit of an edge, but tinkering (trial and error) is the equivalent of 1,000 IQ points. It is tinkering that allowed the Industrial Revolution.” ». Il n’est pas besoin de reprendre les arguments sur l’importance de l’autonomie, dans la droite ligne de Daniel Pink et du management 3.0. Je note juste cette citation parce qu’elle fait le lien avec la passion, une qualité essentielle pour réussir dans cet environnement numérique et exponentiel : « Its approach to autonomy is similar to the MIT Media Lab: both are passion-driven organizations in which employees and students are self-starters who launch their own projects or pick from a collection of ongoing projects ».

  • Pour finir, ce livre est à ajouter à la collection de supports pour la méthodologie « Lean Startup ». Un chapitre entier y est consacré, et le livre est rempli de références, comme « The most important message of the Lean Startup movement is to “Fail fast and fail often, while eliminating waste.” Its approach can be summarized as a new, scientific, data-driven, iterative, and highly customer-driven approach to practical innovation that is used by startups, mid-market companies, corporations and even governments », ou de citations d’Eric Ries, telle que « The modern rule of competition is whoever learns fastest, wins ». On trouve des explications détaillées sur le Business Model Canvas ou sur le concept de MVP (Minimum Viable Product) « The MVP is a kind of applied experiment to determine the simplest product that will allow the team to go to market and see how users respond (as well as help find investors for the next round of development). ». Comme je l’ai écrit précédemment, les grandes entreprises adoptent le Lean Startup, telles que GE « GE has done something even more ambitious with its FastWorks program, in which Lean Startup expert Eric Ries was invited to train eighty coaches » ou Coca-Cola : « To deliver on this startup philosophy, Coca-Cola is working with Steve Blank and Eric Ries to implement their Lean Startup philosophy across the entire corporation …  We believe that if Coke’s core business is infected by the Lean Startup meme in time, the company will see the value of this innovation approach and become even more open to disruptive innovation efforts at the edges ».


3. Conclusion

Je considère que j’ai suffisamment parlé du thème de l’entreprise 3.0 pour l’instant, mais la raison de ce billet est que ces deux livres illustrent précisément les six principes que j’avais proposés pour l’entreprise 3.0. On pourrait même dire que « Reinventing organizations » propose les preuves pour 1(Holomorphisme), 3(Réseau d’équipe) et 4 (Reconnaissance et réponse), tandis que « Exponential organizations » nourrit les principes 2(Homéostasie / Lean startup), 5 (Plateforme ouverte sur ses frontières) et 6 (caractère Antifragile).

Comme je l’avais indiqué dans le billet précédent, le sentiment de convergence est très fort depuis quelque temps. Dans la liste des livres qui ne sont pas dédiés au management 3.0 mais qui fournissent des éclairages fondamentaux sur des aspects de la révolution de l’environnement des entreprises 3.0, je souhaite souligner deux lectures que je viens de terminer :

Le premier est une illustration spectaculaire du nouveau sens du mot leadership et de la puissance des communautés, le second une explication magistrale du changement de rapport de force entre l’entreprise et ses clients.

Pour conclure et illustrer ce sentiment de convergence, je vous conseille de regarder l’exposé de Jonathan Rosenberg, le SVP Product de Google. Ceux qui n’ont pas le temps pourront lire l’excellent résumé fait sur Firstround.com. Cette liste reprend une très grande partie des principes de l’entreprise libérée. J’ai apprécié son principe #13, qui défend la synchronisation contre le travail ATAWAD (« le travail à la maison est un cancer, à interdire »). A ne pas prendre au pied de la lettre, selon moi, mais bien comme une exhortation au travail synchronisé en petites équipes.