samedi, septembre 11, 2010

Récréation quantique

Je suis resté plutôt silencieux car je profite de l'été pour lire, relire, réfléchir et digérer. Il est temps de remettre de l'ordre dans toutes les idées exprimées ici depuis quatre ans, et ce travail d'approfondissement porte des fruits intéressants. Je vous en dirai plus dans quelques mois…

En attendant, je souhaite partager quelques pépites de ce travail. J'ai lu quelques classiques, tels que « The Goal » de E. Goldratt (que j'aurai du lire plus tôt !), et j'ai approfondi ma bibliographie sur le lean. En particulier, j'ai rencontré Michael Ballé (cf. post précédent), ce qui m'a conduit à découvrir :

  • The Lean Edge, un « blog » vraiment génial, une discussion entre tous les meilleurs spécialistes de la planète sur le sujet. Dans une dérive très socratique, plus je découvre, plus je considère que je suis vraiment incompétent sur ce sujet … mais je me soigne J
  • « The Lean Manager »,  un livre roman dans la veine de « The Goal », le meilleur livre que j'ai lu sur le sujet en compagnie du « Toyota Way » de J. Liker. A lire absolument, c'est un pur bonheur (lorsqu'on connait un peu le sujet).

En passant, je vous signale la sortie de « Gmail beta avec priorité » (si cela vous avait échappé). C'est l'application directe des principes évoqués dans mon post sur le « lean email » (entre autres billets). Je suis doublement ravi : en tant qu'utilisateur et en tant que bloggeur ! Je ne comprends pas pourquoi Microsoft ne me fournit pas la même chose sous Outlook, le succès du « mail » sous Facebook est suffisamment frappant depuis plusieurs années ….

J'en arrive à mon sujet du jour, quelque peu facétieux. Un des points clé lorsqu'on étudie l'efficacité d'un canal de communication est de comprendre non pas le temps de transfert d'information, mais le temps du processus complet (transfert + réception). La performance du transfert est liée au débit et à la latence, mais la performance de la communication (processus complet) est liée à la « Bandwidth » (BW), c'est-à-dire la capacité du canal de supporter les « allers-retours » nécessaire à la compréhension et l'appropriation, qu'ils soient explicites (questions/réponse) ou implicites (posture corporelle, intonation, etc.). Si l'on défini la bandwith comme une « fréquence de synchronisation », le temps du processus est proportionnel à l'inverse de cette fréquence.

La question que je me posais précédemment est la suivante : comment ce temps varie en fonction de la quantité d'information et de la précision souhaitée ? On peut considérer qu'il est proportionnel à la quantité d'information (une hypothèse que j'utilise depuis 4 ans ici), mais quelle est l'influence de la précision ?. Si nous étions en théorie classique de l'information, avec des pertes aléatoires de contenu, nous aurions une loi exponentielle en fonction du temps (ce qu'on obtient avec un protocole émission / receception – retour / comparaison – renvoi de ce qui n'est pas passé). Mais c'est plus compliqué dans la « vraie vie », car ce qui n'est pas compris la première fois résiste souvent et nécessite plus de temps qu'une simple « ré-émission ». A défaut de connaitre la loi, je me suis mis à spéculer sur ce qu'on obtiendrait en admettant que l'erreur décroit simplement de façon inversement proportionnelle au temps. Autrement dit, le temps de communication minimal devient proportionnel à Q / (BW * dQ) ou Q est la quantité d'information, BW la « bandwith » propre au canal, et dQ la précision souhaitée dans la communication.

Pour comprendre ce que dQ signifie, il faut s'imaginer deux interlocuteurs E et R, chacun avec leur propre « modèle mental ». Au départ, sur un sujet donné, les deux modèles sont différents. L'acte de communication cherche à faire émerger dans le modèle de R une copie d'un fragment du modèle de E (de taille Q). A la fin de l'acte de communication, il existe bien un fragment Q' dans la « tête de R », avec quelques différences, parce que la culture, les opinions, les connaissances de R sont différentes de celle de E. dQ est une estimation de cette différence.

Si l'on veut faire référence à la latence du canal, on peut considérer que si la communication commence au temps 0, l'information Q atteint E au temps L (latence), puis qu'elle est « transférée » au temps T (L + durée qui est fonction de Q et du débit). Ce temps T est d'ailleurs celui que j'utilise dans mon modèle SIFOA, puisque je modélise la bandwidth avec des allers-retours. La communication atteint le niveau de précision dQ plus tard, après différents échanges, à un temps T + dT. Si on prend le cas d'un email, T est le temps pour ouvrir l'email (le temps de latence du canal email), alors que dT représente les allers-retours nécessaires pour que le contenu de l'email soit devenu « clair » pour le destinataire (en fonction de la « précision » dQ souhaitée).

La loi précédente peut s'écrire autrement : lorsqu'on transmet une information, on ne peut pas à fois réduire l'imprécision et la rapidité de compréhension. C'est l'équivalent de l'inégalité d'Heisenberg  (dx * dv >= h/2) :


dQ * dT >= Q/BW

L'analogie fonctionne bien : la position est l'équivalent de la précision dQ, et la vitesse est l'équivalent du temps de validation dT. Cette inégalité nous dit qu'on ne peut pas à la fois maitriser le temps et la précision lorsque l'on véhicule des informations dans un acte de communication.

Bon, à quoi tout cela sert-il ? à affirmer qu'on ne peut pas propager un message dans une organisation de façon rapide, sauf s'il est court. Un corolaire intéressant, analogue à la notion de mouvement Brownien, affirme que le besoin de précision augment de façon exponentielle en fonction du diamètre organisationnel. C'est assez intuitif, plus les chaines de propagations sont longues, plus les effets de déformation (les dQ) vont d'amplifier. Si le message doit aller loin, il faut partir avec un dQ petit !

  • On retrouve donc une des lois fondamentale de la conduite du changement : construire un message clair et synthétique (concis).
  • Et que fait-on si le message est forcément long (exemple : les principes du lean) ? on prend son temps, et on répète, on répète, on répète (cela s'appelle la pédagogie).

5 commentaires:

  1. Bonjour Yves,
    Votre approche est intéressante, puisqu'elle prend au pied de la lettre la définition du système d'information comme machine logique de traitement et de transfert de l'information au sein de l'entreprise. Pourquoi, ce système ne serait-il pas vu comme un chainage de transferts-transformations entre les parties prenantes d'un processus métier quel qu'il soit ?

    Vous appréhendez le canal global (homme+système) et sa capacité à échanger de l'information. Vous édictez donc que le temps absolu de l'échange est fonction de la quantiré d'information rapporté à la Bande passante exprimée en nombre d'aller-retour par seconde (par unité d'information ?). Vous affinez cette approche en indiquant que la bande passante est aussi occupée par les retransmissions des erreurs et donc le temps de l'échange devient Q/(BW*dQ).

    Si votre approche engloble la dimension humaine de la communication, et ce devrait être le cas si l'on traite d'architecture d'entreprise, et peut être aussi de thèmes telle que les phénomènes d'émergence, ne faudrait-il pas aussi s'intéresser aux codeurs/décodeurs humains ?
    l'humain 1 code une sémantique avec des concepts de référence 1. Cette sémantique est encodée par un canal de type Shannon, décodée par le récepteur technique, puis par un humain 2 qui interprète la sémantique avec de concept de référence 2.
    S2 = g2°f-1(g1°f(S1,C1),C2)
    La sémantique S2 est le résultat de l'interprétation d'un message m=g1°f(S1,C1)
    représenté par la fonction f-1, inverse de f affecté d'un bruit g2 qui n'est pas obligatoirement blanc, la composition n'est donc pas une addition. Le message lui est une formulation f d'une sémantique S1 en utililsant des concepts de référence C1, affectée d'un bruit g1 (les bruits g1 et g2 dépendent aussi de l'émetteur et du récepteur).

    S2 est alors un estimateur de S1, et l'on peut réutiliser l'approche de Fisher pour évaluer la quantité d'information. La relation d'incertitude proviendrait de la borne de la Variance V >= 1/I. Plus la variance est grande, plus la quantité d'information est faible.

    Ce modèle a, en l'état moins d'intérêt que le votre si l'on veut réaliser une simulation. En revanche, il permet de prendre en compte des paramètres comme une distance sémantique entre C1 et C2, et par conséquent, introduire une
    notion de cohénsion sociale. L'information sert alors à échanger des données, et aussi à modifier les concepts de référence de l'émetteur et du récepteur. En l'état le canal est à mémoire, à la différence de celui de Shannon.

    Il reste à identifier les cas particuliers pour lesquels ce modèle serait calculable et se préterait à des simulations. Les avancées dans la théorie des réseaux sociaux et celle de la connaissance, me rendent optimiste.

    Bien cordialement

    Jérôme Capirossi
    http://capirossi.org

    RépondreSupprimer
  2. [suite à un bug de blogger ce commentaire m'est arrivé par email et pas sur le site ...]


    Jérôme Capirossi a ajouté un nouveau commentaire sur votre message "Récréation quantique" :

    Bonjour Yves,
    Votre approche est intéressante, puisqu'elle prend au pied de la lettre la définition du système d'information comme machine logique de traitement et de transfert de l'information au sein de l'entreprise. Pourquoi, ce système ne serait-il pas vu comme un chainage de transferts-transformations entre les parties prenantes d'un processus métier quel qu'il soit ?

    Vous appréhendez le canal global (homme+système) et sa capacité à échanger de l'information. Vous édictez donc que le temps absolu de l'échange est fonction de la quantiré d'information rapporté à la Bande passante exprimée en nombre d'aller-retour par seconde (par unité d'information ?). Vous affinez cette approche en indiquant que la bande passante est aussi occupée par les retransmissions des erreurs et donc le temps de l'échange devient Q/(BW*dQ).

    Si votre approche engloble la dimension humaine de la communication, et ce devrait être le cas si l'on traite d'architecture d'entreprise, et peut être aussi de thèmes telle que les phénomènes d'émergence, ne faudrait-il pas aussi s'intéresser aux codeurs/décodeurs humains ?
    l'humain 1 code une sémantique avec des concepts de référence 1. Cette sémantique est encodée par un canal de type Shannon, décodée par le récepteur technique, puis par un humain 2 qui interprète la sémantique avec de concept de référence 2.
    S2 = g2°f-1(g1°f(S1,C1),C2)
    La sémantique S2 est le résultat de l'interprétation d'un message m=g1°f(S1,C1)
    représenté par la fonction f-1, inverse de f affecté d'un bruit g2 qui n'est pas obligatoirement blanc, la composition n'est donc pas une addition. Le message lui est une formulation f d'une sémantique S1 en utililsant des concepts de référence C1, affectée d'un bruit g1 (les bruits g1 et g2 dépendent aussi de l'émetteur et du récepteur).

    S2 est alors un estimateur de S1, et l'on peut réutiliser l'approche de Fisher pour évaluer la quantité d'information. La relation d'incertitude proviendrait de la borne de la Variance V >= 1/I. Plus la variance est grande, plus la quantité d'information est faible.

    Ce modèle a, en l'état moins d'intérêt que le votre si l'on veut réaliser une simulation. En revanche, il permet de prendre en compte des paramètres comme une distance sémantique entre C1 et C2, et par conséquent, introduire une
    notion de cohénsion sociale. L'information sert alors à échanger des données, et aussi à modifier les concepts de référence de l'émetteur et du récepteur. En l'état le canal est à mémoire, à la différence de celui de Shannon.

    Il reste à identifier les cas particuliers pour lesquels ce modèle serait calculable et se préterait à des simulations. Les avancées dans la théorie des réseaux sociaux et celle de la connaissance, me rendent optimiste.

    Bien cordialement

    Jérôme Capirossi
    http://capirossi.org

    RépondreSupprimer
  3. [suite à un bug de Blogger - le commentaire suivant est coupé en deux messages ...]

    Jérôme Capirossi a ajouté un nouveau commentaire sur votre message "Récréation quantique" :

    Bonjour Yves,
    Votre approche est intéressante, puisqu'elle prend au pied de la lettre la définition du système d'information comme machine logique de traitement et de transfert de l'information au sein de l'entreprise. Pourquoi, ce système ne serait-il pas vu comme un chainage de transferts-transformations entre les parties prenantes d'un processus métier quel qu'il soit ?

    Vous appréhendez le canal global (homme+système) et sa capacité à échanger de l'information. Vous édictez donc que le temps absolu de l'échange est fonction de la quantiré d'information rapporté à la Bande passante exprimée en nombre d'aller-retour par seconde (par unité d'information ?). Vous affinez cette approche en indiquant que la bande passante est aussi occupée par les retransmissions des erreurs et donc le temps de l'échange devient Q/(BW*dQ).

    Si votre approche engloble la dimension humaine de la communication, et ce devrait être le cas si l'on traite d'architecture d'entreprise, et peut être aussi de thèmes telle que les phénomènes d'émergence, ne faudrait-il pas aussi s'intéresser aux codeurs/décodeurs humains ?
    l'humain 1 code une sémantique avec des concepts de référence 1. Cette sémantique est encodée par un canal de type Shannon, décodée par le récepteur technique, puis par un humain 2 qui interprète la sémantique avec de concept de référence 2.
    S2 = g2°f-1(g1°f(S1,C1),C2)
    La sémantique S2 est le résultat de l'interprétation d'un message m=g1°f(S1,C1)
    représenté par la fonction f-1, inverse de f affecté d'un bruit g2 qui n'est pas obligatoirement blanc, la composition n'est donc pas une addition. Le message lui est une formulation f d'une sémantique S1 en utililsant des concepts de référence C1, affectée d'un bruit g1 (les bruits g1 et g2 dépendent aussi de l'émetteur et du récepteur).

    RépondreSupprimer
  4. [suite du commentaire précédent de Jérôme Capirossi]
    S2 est alors un estimateur de S1, et l'on peut réutiliser l'approche de Fisher pour évaluer la quantité d'information. La relation d'incertitude proviendrait de la borne de la Variance V >= 1/I. Plus la variance est grande, plus la quantité d'information est faible.

    Ce modèle a, en l'état moins d'intérêt que le votre si l'on veut réaliser une simulation. En revanche, il permet de prendre en compte des paramètres comme une distance sémantique entre C1 et C2, et par conséquent, introduire une
    notion de cohénsion sociale. L'information sert alors à échanger des données, et aussi à modifier les concepts de référence de l'émetteur et du récepteur. En l'état le canal est à mémoire, à la différence de celui de Shannon.

    Il reste à identifier les cas particuliers pour lesquels ce modèle serait calculable et se préterait à des simulations. Les avancées dans la théorie des réseaux sociaux et celle de la connaissance, me rendent optimiste.

    Bien cordialement

    Jérôme Capirossi
    http://capirossi.org

    RépondreSupprimer
  5. Bonjour Jérome,
    merci beaucoup pour ce commentaire très intéressant, avec lequel je suis très en phase ! J'avais commencé à essayer de modéliser la communication comme un protocole de synchronisation partielle de modèles mentaux, mais je me suis arrêté faute de référence. Votre approche (sémantique/bruit) me plait beaucoup.

    Comme mon prochain bouquin (ecrit cet été) va le montrer, je suis de plus en plus persuadé que la théorie de la communication doit contribuer à la théorie du management :)

    RépondreSupprimer