lundi, mai 08, 2017

"Grec et chinois" : anticipation et agilité




1. Introduction


Le 23 Janvier je suis intervenu à une conférence coorganisée par l’AFIA et le MEDEF sur l’intelligence artificielle. Je me suis appuyé sur les premiers travaux du groupe de travail de l’Académie des technologies pour évoquer l’impact grandissant des progrès de l’Intelligence Artificielle sur les entreprises, en particulier dans le monde de la finance et de l’assurance. Les slides sont disponibles en ligne, la dernière slide de conclusion contient une « Pyramide de Maslow » qui décrit les conditions pour cultiver les possibilités et bénéfices de l’Intelligence Artificielle dans les entreprises. L’objectif du billet de ce jour est d’expliquer ce schéma, qui rassemble beaucoup des idées que je développe dans ce blog.


Le titre de ce billet est bien sûr un clin d’œil au livre de François Jullien, « Conférence sur l’efficacité ». Savoir profiter des progrès constants de l’Intelligence Artificielle relève précisément du « jardinage de l’émergence » qui est le thème du livre, une nouvelle définition de l’efficacité dans un monde complexe, non-linéaire, dans lequel les approches velléitaires et mécanistes ne fonctionnent plus. Sans rentrer dans le détail, rappelons que François Jullien oppose deux modèles de pensée : le modèle grec, dont nous sommes les héritiers, qui construit sa stratégie sur la finalité de façon déductive, sous la forme d’un plan d’action, et le modèle chinois qui définit une stratégie inductive construit un potentiel de situation et laisse les opportunités guider l’action. Le « modèle grec » cherche à imposer sa volonté au monde – et permet de façonner le monde de la sorte. C’est le modèle idéal pour construire des cathédrales et des TGVs. Il repose sur l’hypothèse que nous comprenons le monde et que nous pouvons anticiper ce qui va se passer. Le modèle et le plan y jouent un rôle fondateur. Le « modèle chinois » s’adapte continument à la réalité du monde et ne fait pas les mêmes hypothèses. C’est donc un meilleur modèle pour naviguer dans l’incertain. L’action volontaire est remplacée par une transformation continue. Il ne s’agit pas bien sûr d’opposer de façon binaire ces deux approches mais de savoir les combiner. En particulier, c’est le titre de ce billet, de savoir combiner les bénéfices de l’anticipation et de l’agilité. Dans la grande tradition de l’art militaire de Sun Tzu, c’est parce que qu’on a anticipé pour jardiner son potentiel de situation que l’on peut faire preuve d’agilité et saisir les opportunités. Je ne connais pas de meilleure façon de penser la stratégie des systèmes d’informations.


La thèse de ce billet est simplement qu’il faut penser l’émergence de l’Intelligence Artificielle dans nos entreprises, et donc dans nos systèmes d’informations, dans ce double temps : le temps long de l’anticipation et du jardinage, et le temps court de l’agilité, pour saisir des opportunités qui sont par essence fugaces dans un monde d’hyper-compétition. Cette thèse va être développée en quatre partie. La première porte sur cette opposition entre le temps court et le temps long, sur les pas de François Jullien. La seconde section s’intéresse entre la dualité entre les connaissances et la pratique, ce qui est également essentiel pour comprendre comment profiter de l’Intelligence Artificielle. L’usage de la technologie qui crée de la valeur sur les opportunités est un usage émergent, tiré par la pratique et les outils. Nous allons retrouver les problématiques d’émergence et d’adaptation continue à son environnement (homéostasie) du livre « Exponential Organisations » qui est un autre marqueur de ce blog.  La troisième section porte sur l’« osmose de l’innovation », qui sont les conditions pour que l’entreprise puisse bénéficier du flux continu d’innovation que des partenaires externes peuvent lui apporter. Ce sont les conditions de l’open innovation, particulièrement importante dans les cas de l’Intelligence Artificielle puisque les investissements massifs des GAFA et des venture capitalists dans l’IA font que l’entreprise doit accueillir des idées, compétences et outils externes, bien plus qu’internes. La dernière section appliquera toutes ces idées pour expliquer ma proposition sur ce que sont les conditions nécessaires à la bonne valorisation de l’intelligence artificielle dans les entreprises.

2. Temps court et temps long


Un des aphorismes préférés du monde digital et des startups est « Fail Fast », rendu célèbre par des grandes entreprises de la Silicon Valley. Il est souvent mal compris et utilisé pour justifier qu’il faille abandonner rapidement si un projet ne réussit pas – et cela d’autant plus qu’on fonctionne sur un modèle de pensée grec qui cherche à imprimer son action sur le monde. « Fail Fast » est un principe de systémique, qui s’applique au « cycle time » et pas au « lead time ». Autrement dit, l’aphorisme est à comprendre dans un monde d’itérations continues, et il signifie qu’il faut savoir échouer le plus rapidement possible, parce qu’il faut itérer plusieurs fois pour réussir. Plus ce qu’on cherche à faire est ambitieux – et dynamique – plus il est essentiel de raccourcir le temps des itérations. C’est très précisément le principe fondateur du Lean Startup.
Il est par ailleurs clair que temps court et temps long ne s’opposent pas. Le temps long est celui de la préparation, le temps court est celui de l’action. C’est une évidence depuis des siècles pour les militaires ou les sportifs de haut niveau – en particulier les sportifs de l’extrême comme les alpinistes. Le fait que la prévision devienne de plus en plus difficile dans un monde complexe ne signifie pas qu’il ne faut pas se préparer. Je vous renvoie ici à Nassim Taleb, qui s’inscrit précisément dans un mode « chinois » de préparation du potentiel de situation « antifragile », capable de profiter des opportunités et de s’enrichir des aléas. Taleb remet à l’honneur les exercices, la pratique des « war games », des « katas » du monde lean, pour construire ce potentiel. Dans le monde du système d’information, le temps long est celui de la construction du potentiel (modèle, données, API, etc.) tandis que le temps court est celui du projet agile qui rencontre le besoin de l’utilisateur.
Le temps long est nécessaire pour développer les capacités d’innovation qui s’expriment dans le temps court. Le parallèle entre l’innovation et les métaphores agricoles chères à François Jullien pour expliquer le modèle chinois est frappant.  Une partie du travail est visible (lorsque la plante pousse) mais une partie ne l’est pas (lorsqu’on prépare le sol). Les « slow hunchs » chers à Steven Johnson sont semblables à la germination des graines. Je vous revoie également au livre « Lean Enterprise – How High Performance Organizations Innovate at Scale » que j’ai commenté dans un billet précédent.
L’illustration suivante représente les différents cycles de temps qui participent à la démarche lean du Toyota Way. Le temps T0 est le temps court de la satisfaction client. C’est le temps du processus, mesuré par le takt time. Le temps T1 est celui du cycle de l’amélioration continu, celui du kaizen. C’est déjà un temps plus long et plus complexe, puisque l’amélioration continue est un processus émergent. Le temps T2 est celui de la construction des compétences, le temps long du potentiel de situation. Comme nous le rappelle Michael Ballé, le kaizen est un outil de résolution de problème, dont l’objectif final est de développer les compétences, à la fois dans le domaine systémique du produit ou service que l’on construit et dans le domaine de la collaboration d’équipe. C’est le « secret génial du lean » : il n’y a pas de meilleure façon de « casser les silos » et d’apprendre la collaboration à une équipe plurifonctionnelle que de résoudre ensemble des problèmes clients – ce que mon expérience de construction de set-top box à Bouygues Telecom confirme merveilleusement. La biologie et la science des systèmes complexe nous confirment les intuitions du lean :
  • Pour que les organismes survivent ils doivent être adaptables, et cela passe par la minimisation du temps de réponse (temps de cycle T0)
  • Pour être agiles et rapides, il faut apprendre (temps T2) par la pratique (temps T1)



3. Technologie et Outils

Une des clés essentielles pour comprendre le développement des technologies est la codépendance entre l’outil et l’usage.  L’usage est guidé et façonné par l’outil, mais l’outil évolue et se transforme en fonction de l’usage – il n’y a pas d’outil sans usage. Dans l’apprentissage des connaissances, l’outil et la pratique jouent un rôle fondamental. C’est un des thèmes fondateurs de l’Académie des technologies. Ces idées sont par exemple illustrées dans le rapport de 2015 sur le Big Data.  Le rôle essentiel des outils est particulièrement important dans le domaine de la transformation numérique. La codépendance est quasi paradoxale : les outils sont au service de la transformation – et leur mise à disposition n’a pas d’efficacité sans une ambition et une histoire partagée … mais la transformation nécessite les bons outils – en particulier la simplicité d’utilisation – et la capacité laissée à tous de se les approprier. Il suffit d’ajouter peu de contraintes pour transformer un « best-seller du travail collaboratif » en plateforme d’entreprise apathique.
De la même façon, la construction des « Exponential Information Systems », les systèmes d’informations qui utilisent et profitent de la révolution exponentielle des technologies numériques, passe par la pratique et expérimentation continue des meilleurs outils.  C’est une des principales limitations des entreprises traditionnelles face aux entreprises disruptives, qu’il s’agisse de startups ou d’entreprises qui viennent du monde du logiciel. « Software is eating the world » … et il s’agit de prendre les bons couverts. Ne pas utiliser les mêmes piles logicielles, les mêmes librairies, les mêmes outils open-source que les concurrents les plus agiles revient à se tirer une balle dans le pied. Et il ne s’agit pas seulement d’une vision mécaniste de l’efficacité (temps T0 : l’outil permet d’aller plus vite) mais bien de la capacité à apprendre plus vite comment travailler autrement (temps T1) pour développer des nouvelles compétences sur le temps T2. Les outils modernes pour construire des logiciels ne sont pas réservés à une nouvelle génération d’informaticien, ils sont ce qui forme une nouvelle génération de développeurs.
Je vous recommande très chaleureusement la lecture de l’article « ING’s agile transformation » de McKinsey avec l’interview de Peter Jacobs et Bart Schatmann. Non seulement c’est un très bon article sur l’agilité – « It’s about minimizing handovers and bureaucracy, and empowering people », avec de très bonnes explications sur l’importance des « squads » et du travail en équipe cross-fonctionnelle – « Spotify was an inspiration on how to get people to collaborate », mais il contient également une vision sur l’adaptation continue de l’entreprise – et son système d’information - grâce à une approche DevOps – « The integration of product development and IT operations has enabled use to develop innovative new product features ». Le déploiment de DevOps illustre parfaitement le propos précédent : l’enjeu n’est pas simplement de travailler plus vite, c’est de travailler autrement, pour à la fin travailler beaucoup mieux … et beaucoup plus vite.  Une fois de plus, les outils jouent un rôle fondateur, ils définissent le potentiel de situation de l’équipe.

Une fois de plus, j’emprunte dans ce billet beaucoup au livre « Exponential Organizations » de Salim Ismail, Michael Malone et Yuri Van Geest. Ce livre donne un certain nombre de clés pour comprendre ce qui est nécessaire à l’adaptation continue des entreprises au changement exponentiel de leur environnement. Je voudrai souligner ici quatre points :
  • Le monde des Exponential Organizations est un monde ouvert dans lequel les entreprises doivent absorber le plus de valeur possible de l’extérieur, en particulier sous la forme d’open innovation qui sera le sujet de la section suivante.
  • Le changement est « distribué » aux frontières (Interfaces) – on retrouve ici la métaphore biologique du BetaCodex, sur laquelle je reviens dans la section suivante. La vitesse de changement impose que celui-ci ait lieu de l’extérieur (la frontière) vers l’intérieur. L’entreprise s’adapte au changement de son environnement (par exemple ses clients) au lieu de décliner une stratégie qui vient du centre décisionnel. C’est le principe de l’homéostasie digitale dans le contexte de la transformation numérique.
  • Le changement commence par la pratique (Experimentation). La supériorité du « learn by doing » est un symptôme de la complexité de l’environnement. Cette complexité exige une adaptation, qui se fait implicitement dans l’apprentissage par expérimentation pratique, parce que la pratique est plus facilement intégrée dans l’environnement réel.
  • Comme dans tout système complexe, le changement rapide exige une finalité claire (Purpose). Pour citer Isaac Getz, l’autonomie sans finalité commune produit le chaos. Dans un monde sans planification, c’est la finalité qui guide la construction du potentiel de situation, de façon émergente.


4. Innovation et Osmose




Le besoin d’ “open innovation” – aller trouver les innovations à l’extérieur de l’entreprise, les idées, les compétences et les talents – est une des conséquence de cet environnement complexe en perpétuelle évolution. Je n’y reviens pas, c’est une des idées clés de « Exponential Organizations » et de ce blog. La stratégie de l’entreprise n’est pas une stratégie d’investisseur (sauf s’il s’agit d’un fond d’investissement ou de capital risque) :  pour créer de la valeur propre, il faut que ce qui est repéré à l’extérieur puisse être « intégré » dans l’entreprise – sous des formes multiples. La métaphore biologique qui inspire cette section est celle d’une cellule qui cherche à profiter de ressources disponibles dans son environnement. Si l’acteur innovant est autonome – par exemple une startup – et n’a pas vraiment besoin des ressources de l’entreprise, l’expérience montre qu’il s’agit plus d’une démarche d’investissement ou d’un partenariat de distribution que la co-création de valeur à laquelle aspire la démarche d’open innovation.

Cette problématique de l’intégration est d’autant plus importante que l’approche est souvent vue comme un palliatif pour corriger les cycles trop lents d’une (grande) entreprise. C’est la métaphore souvent entendue du « porte-avion et des vedettes » : L’organisme lent et gros s’associe avec des plus petits et plus rapides qui sont mieux à même d’explorer et détecter les nouvelles possibilités. Cette métaphore est valide pour ce qui concerne l’ambition, l’association avec des petites structures augmente « la surface de contact » avec les marchés et avec les opportunités technologiques. Elle passe sous silence en revanche les conditions de contact et de collaboration entre le porte-avion et les petits bateaux. Pour que les échanges fonctionnent bien – cela va de partager le même langage, pouvoir identifier les mêmes opportunités au partage de données et de services – il doit exister une certaine homogénéité entre les différents acteurs, à la fois en termes de culture et de biorythme.

La métaphore de l’osmose exprime cette condition de l’open innovation : la « pression innovante » doit être équilibrée des deux côtés de la « membrane » (dedans et dehors de l’entreprise) pour que les échanges fonctionnent et que la cocréation de valeur puisse se produire.  C’est ce que j’ai essayé d’illustrer dans le schéma ci-dessous. Pour que l’association avec un petit acteur innovant fonctionne, l’entreprise doit adapter sa culture (cf. « Exponential Organizations ») – pour pouvoir se synchroniser et reconnaitre de façon commune des opportunités -, sa technologie – pour permettre les échanges de données et de services – et son « biorythme » - l’échelle de temps de ses décisions et actions. Dans le domaine de l’échange de données, tout le monde ne parle plus que d’API (Application Programming Interfaces), à juste titre, mais cela ne suffit pas. Pour que cette collaboration logicielle se développe, il faut des API, une pratique logicielle commune et une vision partagée de l’ALP (Application Lifecycle Management) pour que les biorythmes s’ajustent de façon durable – par exemple sur ce que chacun attend de l’autre en matière de réactivité. On retrouve ici notre dualité temps long/ temps court (selon la citation de Louis Pasteur, « le hasard ne sourit qu’aux esprits bien préparés ») : le temps d’association et de cocréation de valeur avec la startup doit être un temps court, mais le temps d’équilibrage des pressions (construire la bonne culture, les bonnes API et les bonnes pratiques) est un temps long, celui de la préparation.




5. Intelligence Artificielle et Emergence


Je peux maintenant revenir au sujet de mon intervention lors de la matinée du MEDEF et de l’AFIA, lorsque je j’ai cherché à partager mes convictions sur les conditions nécessaires pour profiter de cette « révolution exponentielle » de l’apprentissage et de l’intelligence artificielle. Ces convictions sont le fruit de mon expérience, renforcée par ma visite à la Singularity University en Septembre. Pour résumer, il me semble que ces conditions sont au nombre de quatre : disposer de données, pratiquer les outils logiciels modernes, être organisés en « squads » cross-fonctionnels et promouvoir une culture d’entreprise favorable à l’autonomie et l’expérimentation. Sans rentrer dans le détail – j’y reviendrai une fois que le rapport de l’Académie des technologies sera publié – voici une brève explication sur chacun des 4 points :

  • Il y a un consensus total sur le fait qu’il faut des données pour développer des « solutions intelligentes ». C’est vrai de façon générale, et encore plus lorsqu’on parle de « deep learning ». Tous les rapports sur l’IA – comme l’excellent rapport de France IA - convergent sur ce point, tout comme les différents experts que nous avons rencontrés à l’Académie des technologies. Pour une entreprise, la collecte et préparation des données relève du temps long : il s’agit de construire des « training sets » pour les algorithmes apprenants de demain. Sur ce thème, je vous recommande la lecture savoureuse de l’article de Martin Goodson.
  • L’importance de la « culture logicielle » et de l’environnement de travail est la conséquence logique de la seconde section de ce billet. C’est particulièrement vrai pour le domaine de l’IA : on trouve quasiment tout ce qu’on veut dans le monde open-source, mais il faut avoir la pratique de l’intégration et l’assemblage.
  • Le travail en équipe cross-fonctionnelle est essentiel car il n’y a pas de recette pour diagnostique à l’avance la création de valeur. L’apport des algorithmes « intelligents » est lui-même un phénomène complexe, difficile à prévoir. La pratique est pleine de surprises : des déceptions et des bonnes surprises. Le mode agile est particulièrement indiqué pour développer ce type d’opportunités.
  • La complexité et l’incertitude exigent également de laisser une véritable autonomie aux équipes agile. La découverte de l’innovation nécessite une vraie capacité d’expérimentation. Par ailleurs, la révolution de l’IA est pervasive : à coté de quelques gros sujets tels que la voiture autonome ou l’assistant personnel sur le téléphone, il s’agit d’une multitude d’opportunités pour l’ensemble des tâches de l’entreprise. Cette dispersion des opportunités exige une distribution du contrôle, selon les principes des « exponential organizations ».


Pour conclure, je peux maintenant inclure l’illustration que j’ai présentée le 23 Janvier. Il s’agit d’une pyramide de conditions pour que les entreprises puissent bénéficier des progrès constants (et surtout ceux à venir) de l’Intelligence Artificielle (au sens large). Comme dans une pyramide de Maslow, chaque condition est un prérequis pour celle qui est au-dessus. Ce schéma est clairement abstrait, voire sibyllin, et je n’avais pas le temps de l’expliquer durant un exposé aussi court. En revanche, le lecteur attentif devrait reconnaitre l’ensemble des arguments qui ont été développés dans ce billet.




mardi, janvier 31, 2017

Applications mobiles et conversations : la voie de la raison


1. Introduction


Les chatbots sont ces petits robots qui ont fait leur apparition sur les plateformes de messaging, de WeChat à Facebook. Ce serait peu dire que l’engouement pour les chatbots est un évènement marquant de l’année 2016. Il y a bien longtemps que le Cluetrain Manifesto annonçait que les marchés sont des conversations, mais avec l’arrivée des chatbot le concept du « commerce conversationnel » a pris un nouvel essor. Ceci conduit Forbes à écrire « Get ready for the chatbot revolution : they’re simple, cheap and about to be everywhere”, pour prendre un exemple parmi des centaines.

Au même moment, on constate à la fois un ralentissement dans l’augmentation de la pénétration des smartphones, et une concentration de l’usage des apps au profit des blockbusters et au détriment des nouveaux entrants. Il y a une vraie logique dans l’entrée d’une « phase plateau » des smartphones, puisque la technologie marque un temps d’arrêt, et que cela conduit à un ralentissement des renouvellements, tandis que la pénétration a atteint un niveau qui n’est pas loin de la saturation, à condition économique constante. Le ralentissement de la phase de croissance continue que nous avons connu depuis 10 ans se traduit logiquement dans le taux de chargement des applications.  Les places sur les écrans de nos smartphones sont chères, car elles sont liées à une place dans le « top of mind ». Les expériences qui « justifient une app », par leur fréquence d’usage et la valeur apportée restent rares. Dans la très grande majorité des cas, une approche de « Web app », produite sur le navigateur du mobile – dont les capacités ne font que progresser-, est amplement suffisante.

La combinaison de ces deux tendances fait qu’on voit apparaitre depuis plusieurs mois des articles annonçant la fin des applications mobiles. Les chatbots vont remplacer les apps parce qu’ils sont plus faciles à utiliser et ne nécessitent pas de téléchargement. La fin des apps mobiles n’est pas un thème nouveau, mais la compétition avec les chatbots devraient porter le coup de grâce, sans compter les progrès spectaculaires de la reconnaissance vocale, qui devraient faire du smartphone un objet auquel on parle.

L’objectif du billet de ce jour est d’essayer de trouver un compromis – la « voie de la raison » - entre l’enthousiasme justifié pour les chatbots en tant que nouveau canal d’interaction et le scepticisme raisonné face au « hype », et en particulier l’idée que cette approche signifierait la fin des applications mobile. Je partage cet enthousiasme, et les premières expérimentations auxquelles j’ai pu être associé confortent  mon intérêt, mais je suis absolument pas convaincu pas les arguments qui prévoient la fin des applications mobiles. Je pense qu’une révolution arrive, en terme d’interface homme-machine, mais qu’elle va s’ajouter au reste plus que le remplacer les autres techniques d’interaction (hormis les quelques cas dans lesquels le méthodes actuelles sont inefficaces).

Ce billet est organisé selon le plan suivant. La première partie va souligner l’importance de la conversation – sous forme écrite avec un chatbot ou vocale avec Siri ou Alexa – comme méthode d’interaction. Même s’il faudra du temps pour avoir des conversations réellement intelligentes avec les machines, une très grande partie de nos moments de vie se contentent très bien d’une conversation simple – ce que je qualifie de « dumb bots » - qui est à la portée de la technologie d’aujourd’hui et représente un vrai progrès par rapport aux alternatives – remplir un formulaire sur le Web par exemple. La seconde partie va rappeler quelques évidences sur le design d’interaction, pour redécouvrir que tout n’est pas réductible à une conversation. Nous avons 5 sens, et il faudra continuer d’en profiter, avec ou sans intelligence artificielle. La dernière partie va s’intéresser simplement à l’évolution des applications mobiles en co-évolution avec les chatbots. Les smartphones vont continuer – au moins dans les 10 ans à venir – à progresser en termes de capacité logicielles et matérielles via l’incorporation de senseurs. Les applications deviennent des systèmes, dont l’implémentation est distribuée (mobile et cloud et objets) et dont les interfaces sont également distribuées.


2. Une révolution se prépare : l’interaction conversationnelle 


L’utilisation des chatbots est un élément de différenciation du moment de la plupart des acteurs innovants, comme les startups. L’interaction à travers un “agent conversationnel” (chatbot) présente de nombreux avantages, même si le service reçu est simple. Au-delà du côté « naturel » du dialogue en langage naturel, le principe de la conversation est à la fois rassurant et simple. Les premiers retours des utilisateurs pour qui on remplace un formulaire web par un dialogue simple - qui demande les informations une par une - sont très positifs. Ce sont les « dumb bots » que je mentionnais plus haut : des chatbots limités dans leurs capacités et qui interviennent sur des domaines limités. La première étape de la révolution est maintenant parce que la technologie pour les dumbot est très facilement disponible et mature, et parce que les bénéfices clients sont déjà réels. Les plateformes actuelles permettent déjà des réaliser des dialogues plus conviviaux et plus robustes que l’état de l’art des formulaires web assortis d’assistants en Javascript. Plus on dispose de nombreux exemples de dialogues, plus il est possible d’entrainer le chatbot à donner des réponses pertinentes. Par un effet vertueux, un chatbot qui commence à bien fonctionner devient un collecteur de dialogues, ce qui permet de continuer à progresser (et c’est pour cela qu’il faut commencer).

Je peux citer ici à nouveau Norm Judah, le CTO de Microsoft, et reprendre ses arguments d’un billet précédent. Les bots permettent d’ouvrir les interactions avec les services digitaux à de nouvelles familles d’utilisateurs :

  • Ceux qui n’ont pas accès à un smartphone où ne sont pas familier avec l’utilisation des apps. Il faut se rappeler que même si la pénétration des smartphones frise la saturation, plus de la moitié des utilisateurs se contentent des apps pré-chargées et n’en ajoute pas d’autres.
  •  Les utilisateurs qui ne sont pas familiers avec la conceptualisation implicite de la plupart des interfaces utilisateurs du web. La navigation dans les menus, les listes déroulantes, les choix de catégorie qui reposent sur des abstractions, sont autant de barrières en fonction des origines socio-culturelles des utilisateurs.



Si l’état courant des plateformes de bots favorise le choix réaliste de domaines très précis de dialogue, les « dumb bots » vont devenir de plus en plus « smart » parce que la reconnaissance du langage va fortement progresser dans les années à venir. Je vous renvoie à la présentation que j’ai faire au MEDEF – lors de la journée co-organisée avec l’AFIA. Le chemin vers les assistants « vraiment intelligents » sera long. Même à la Singularity University, Ray Kurzweill pense qu’il faudra encore dix ans avant d’avoir des conversations convaincantes sur des domaines généraux. Pour l’instant, lorsqu’il faut traiter des demandes variées, la meilleure méthode est de combiner l’intelligence humaine et l’intelligence artificielle, à la façon de Wiidii ou de Facebook M. Mais il faut s’attendre à des progrès rapides et des étapes marquantes dans cette route vers les assistants « généraux ». Si vous voulez vous convaincre des progrès rapides dans ce domaine, je vous recommande la lecture de cet article, qui relate le fait que les robots de reconnaissance vocale battent les meilleurs humains en train de « texter » des messages. Lors d’une compétition organisée par Baidu, la reconnaissance vocale sur smartphone est 3 fois plus rapide et 20% plus précise que les meilleurs accros au mobile messaging. Ce n’est pas un hasard si Andrew Ng déclare : « 2017 will be the year of the conversational computer ».

Si l’on définit le concept de “test de Turing du chatbot intelligent”, il y a trois paramètres essentiels : le scope de la conversation, la durée de la conversation, et la sérendipité (est-ce que l’utilisateur pose une question ou est-ce qu’il s’agit d’apprendre quelque chose qu’on ne sait pas encore être intéressant). Sur une durée courte, avec un domaine défini et un mode requête, les techniques actuelles permettent déjà de faire illusion (i.e., « passer le test de Turing »), comme le témoigne l’exemple célèbre suivant. Un professeur a décidé de remplacer un de ses « assistants » pour répondre aux questions des élèves, et cela a très bien fonctionné. Les experts des chatbots insistent sur l’importance d’un domaine précis et bien délimité, car cela facilite grandement l’apprentissage supervisé, et permet d’obtenir une bien plus grande pertinence.


3. Design d’interaction 


Ce que nous venons de voir dans la section précédente ne signifie nullement que les chatbots sont une panacée en termes d’interactions. Rappelons-nous, suivant une formule célèbre, que le but du design est de minimiser les frictions et de maximiser le plaisir lors de l’utilisation d’un produit ou d’in service. Le domaine CMC (Computer Mediated Communication), auquel j’ai fait de nombreuses fois référence dans ce blog, est riche d’enseignement.  Chaque canal de communication se caractérise par sa densité, sa bande passante, sa capacité de feedback (entre autres). Le canal audio a ses forces et ses faiblesses, tout comme le canal textuel. L’utilisation de l’image et de la vue supporte une bien plus grande densité d’information. Il ne viendrait à personne l’idée de remplacer Google maps par un chatbot, même si certains « use cases » se prêtent au dialogue. De la même façon, le canal haptique, associé au toucher, permet un excellent niveau de feedback qui n’est pas accessible via le langage. Ici on peut penser aux applications de sketching ou de dessins, qui ne sont pas remplaçables par des dialogues. Au-delà de ces exemples caricaturaux (cf. "un dessin vaut mieux qu’un long discours"), les interfaces conversationnelles sont un des outils du design d’interaction, dans une large panoplie de solutions. Le fait que les progrès des techniques d’apprentissage viennent de faire un progrès spectaculaire et rendent les interactions conversationnelles robotisées faciles d’accès et beaucoup plus pertinentes ne modifie pas l’intérêt fondamental d’utiliser l’ensemble de nos sens pour faciliter le dialogue entre l’humain et la machine.

Sans rentrer dans trop de détail sur ce qui justifierait un billet séparé, voici quelques réflexions sur l’arrivée des chatbots dans la pratique du design d’interaction :

  • Le design d’interaction est au service de l’expérience, tournée vers le “job to be done” et le “unique value proposition” que le service doit apporter au client. Le choix du meilleur canal doit tenir compte du contexte d’utilisation. Par exemple le canal vocal respecte peu la «privacy » du client et produit une « nuisance sonore » (une externalité négative) qui le rende inadapté à de nombreux usages.
  • L’interaction homme-machine est une science, il existe beaucoup de principes et de méthodes fondées sur des expériences validées (clin d’œil à la data science des bots). Beaucoup d’expériences digitales abusent de la puissance des outils et de la richesse des écrans en fournissant beaucoup trop d’information (ce qui a permis à de nombreux acteurs de s’illustrer en prenant le contrepied). A l’inverse, les dialogues répétés et les pages multiples de certaines interfaces Web sont un retour arrière par rapport à la mise à disposition d’information complète.
  • Comme nous allons le développer dans la section suivante, il faut s’inspirer de la nature et favoriser la diversité des canaux d’interaction. Il y a des moments où la voix n’est pas adaptée mais il y a clairement des moments où c’est l’approche la plus naturelle, ce qui explique le succès d’Amazon Echo. Réduire l’effort nécessaire – cf. thinking, fast and slow - est un excellent principe de design biomimétique. La conversation est un mode plus confortable que la requête, mais avec un « cout de setup » et une énergie nécessaire supérieure (par exemple, à l’utilisation de Google dans la barre du navigateur).
  • Chaque année digitale vient avec ses modes, mais la « « mode précédente de l’environnement cliquable – pour reprendre une très belle formule de Joël de Rosnay – qui utilise les objets connectés comme des éléments du design d’interaction reste extrêmement pertinente. L’expérience favorise le design d’interactions simples, associées à un usage unique.  Un exemple simple est celui de la télécommande de la télévision (ou de la set-top box) qui résiste vaillamment à l’introduction de la reconnaissance vocale dans ces objets.



4. La fin des applications n’est pas encore en vue


Pour revenir à la question de l’introduction, le besoin de la richesse des modes d’interaction donne une première raison de penser que les chatbots ne vont pas signifier la fin des applications mobiles. Cette diversité va au contraire conduire à une vision étendue des applications, capables de se matérialiser sur plusieurs interfaces utilisateur. Je souscris à ce concept d’interface utilisateur à la demande « When I say On-Demand User Interfaces, I mean that the app only appears in a particular context when necessary and in the format which is most convenient for the user”. Cet article insiste fort justement sur la notion de produit. L’application est un produit qui se décline intelligemment sous plusieurs instanciations en fonction du contexte utilisateur, avec les interfaces adéquates.
                                                                              
Si l’on regarde ce que les gens font aujourd’hui avec leurs apps, on retrouve les categories best-sellers: la communications avec d’autres personnes, les news et le divertissement, les jeux. Dans la plupart des cas, le canal chatbot n’est pas le mieux adapté et il y a peu de chance que ces applications disparaissent. Si vous voulez vous en convaincre, regardez les applications des deux premiers écrans de votre smartphone et comptez celles qui pourraient être remplacé par un chatbot.  L’arrivée des applications vocales – on pense aux skills d’Alexa et leurs équivalents chez Google – vont donner lieu à des nouvelles plateformes, mais il s’agit de l’ajout d’un nouvel écosystème digital, pas de la fin du précédent.

De toutes façons, les chiffres ne supportent pas les analyses pessimistes que j’ai cités en introduction. Il y bien un léger tassement et une concentration en faveur des applications dominantes, mais la course technologique n’est pas terminée et il faut s’attendre à ce que les smartphones intègrent des nouvelles capacités, matérielles et logicielles, qui donneront lieux à des nouvelles applications. Sur le plan matériel, nous n’en sommes qu’au début de l’intégration des senseurs. Les domaines de la santé, de la prévention et du bien-être vont être bouleversés par l’arrivée de capteurs beaucoup plus sensibles et fiables de nos bio-mesures, depuis des choses élémentaires comme la température ou le rythme cardiaque jusque des mesures complexes de type ECG. Ces capacités nouvelles (en particulier par rapport au manque de précision/fiabilité des premières génération) vont donner lieu à des nouvelles applications. De la même façon, le machine learning et les réseaux neuronaux vont s’inviter sur les smartphones pour leur permettre d’analyser notre environnement (images et sons, mais aussi déplacements). Il faut s’attendre à voir apparaitre de multiples applications – y compris les évolutions de celles que nous connaissons déjà – qui vont exploiter ces capacités.

La notion d’application va également devenir de plus en plus polymorphe : des applications mobiles avec interfaces graphique – celles que nous connaissons aujourd’hui - , mais aussi des application mobiles en « tache de fond » qui s’exprimeront par d’autres canaux (e.g., messages ou notifications), des applications dans les plateformes (telles que les applications dans Facebook ou Wechat), des applications intégrées dans les navigateurs, ou des applications natives des OS (des « widgets » associés à des événements) ou des applications associées à des objets, tels que le bouton Nuimo que j’utilise avec plaisir depuis quelques mois. Tout ceci conduit à la notion d’application en tant que système, au lieu d’être une « destination », ce qui est très bien expliqué dans  l’article  « the end of the apps as we know them ». Voici un petit extrait pour vous donner envie de lire cet article : « Most of us building software are no longer designing destinations to drive people to. That was the dominant pattern for a version of the Internet that is disappearing fast. In a world of many different screens and devices, content needs to be broken down into atomic units so that it can work agnostic of the screen size or technology platform. For example, Facebook is not a website or an app. It is an eco-system of objects (people, photos, videos, comments, businesses, brands, etc.) that are aggregated in many different ways through people’s newsfeeds, timelines and pages, and delivered to a range of devices, some of which haven’t even been invented yet. So Facebook is not a set of webpages, or screens in an app. It’s a system of objects, and relationships between them ».  Cet article insiste sur l’importance des notifications et d’une approche orientée-évènement, un point sur lequel je ne peux être qu’en agrément.

Pour conclure, je reprendrai le titre de cet article de Techcrunch : « les nouvelles de la mort des apps ont été grandement exagérées », mais il n’en reste pas moins vrai que construire une application satisfaisante reste une aventure très difficile, comme l’explique très bien cet article sur la refonte d’Evernote.

samedi, novembre 19, 2016

Le futur du travail et la mutation des emplois


1. Introduction


Le billet de ce jour rassemble un certain nombre de réflexions autour du « futur du travail ». Ce sujet est particulièrement d’actualité en ce moment, qu’il s’agisse de la presse ou de la préparation de la campagne présidentielle. En ce qui me concerne, j’ai eu la chance de passer une semaine à la Singularity University dans le cadre du Singularity University Executive Program, ce qui m’a permis d’approfondir mes idées sur le sujet. Ce billet reprend les points principaux que j’ai développé le 12 Octobre lors du séminaire de l’Académie des Technologies, lors d’une conférence intitulée « Emploi et travail dans un monde envahi par les robots et les systèmes intelligents ». Il s’inscrit dans la continuité d’un premier billet écrit il y a deux ans, mais j’ai affiné mon diagnostic et j’ai donc des convictions plus fortes et plus précises.

La première partie fait le point sur la question de l’automatisation – des robots à l’intelligence artificielle – et de son impact sur les emplois. Depuis la publication du rapport de Frey-Osborne en 2012, il y a eu de nombreuses réactions. La plupart sont conservatrices et prudentes, qu’il s’agisse du rapport de l’OCDE ou du livre récent de Luc Ferry. Je ne partage pas ce revirement comme je vais l’exprimer, particulièrement après avoir passé cette semaine à la Singularity University. Je vais au contraire développer une vision de l’évolution du travail dans laquelle l’homme est complémentaire de ces nouvelles formes automatisées de production et de création de valeur.

La seconde partie est une réflexion sur la société à la quelle conduit cette nouvelle vision du travail. C’est, par construction, une contribution à l’iconomie, c’est-à-dire l’organisation de l’économie dans le cadre d’une exploitation pleine et entière des bénéfices de la technologie de l’information, y compris dans ces capacités d’automatisation (lire la définition de Michel Volle). Je propose une vision « fractale / multi-echelle » de l’ iconomie qui réconcilie la domination des plateformes (« winners take all ») et le retour de la « localisation » (la priorité donnée à la communauté et au territoire ) face au désarroi (pour rester mesuré) que cette rupture de paradigme va produire. Dans la tradition des « power laws » de la nouvelle économie, les bassins d’opportunité créés par le progrès technologique ont une structure maillée et multi-échelle qui contient une « longue traine » de micro-opportunités pour microentreprises.

La troisième partie porte sur cette rupture, la transition de phase entre le modèle actuel de l’emploi qui est clairement à bout de souffle et un modèle possible, correspondant à la vision développée dans les deux premières parties. C’est la question fondamentale, et la plus difficile : même pour les partisans d’une vision optimiste du progrès technologique dont je fais partie, la transition qui s’annonce est complexe, voire brutale. Même si le titre du livre de Bernard Stiegler « L’emploi est mort, vive le travail ! » contient un message positif, ce changement n’est pas moins qu’une révolution, qui est par ailleurs déjà engagée. Face à un changement qui s’accélère et des vagues d’automatisation nouvelles qui se dessinent, je suis persuadé que le monde politique a un rendez-vous avec l’Histoire, et qu’un certain nombre de mesures sont nécessaires pour éviter des scénarios noirs qui sont fort bien décrits dans des ouvrages de science-fiction. Il est possible de construire une société équilibrée autour de l’iconomie, mais la tendance naturelle du techno-système, sans intervention et régulation, est d’aller vers la polarisation et l’affrontement.

J’ai résisté à la tentation facétieuse et opportuniste de nommer ce billet « comprendre les causes profondes de l’élection de Donald Trump », mais je pense néanmoins qu’une des causes essentielles de cette élection, qui semble défier le sens commun, est qu’une grande partie des électeurs sentent plus ou moins confusément qu’un monde est en train de se construire dans lequel ils n’ont plus de place. Ce n’est pas une « simple » réaction à la désindustrialisation, c’est une peur de se retrouver « assignés à résidence », pour reprendre les mots d’Emmanuel Macron, sans utilité pour cette nouvelle société technologique et automatisée. Le défi qui est devant nous est de rendre l’iconomie « inclusive », c’est-à-dire avec une place pour chacun qui lui permette de contribuer au travers de son activité.


2. Automatisation, Intelligence Artificielle et destruction d’emploi : état des lieux



2.1. Une révolution numérique qui détruit plus d’emplois qu’elle n’en crée


Depuis l’étude « The Future of Employment » de Carl B.Frey et Michael A. Osborne, qui a annoncé que 47% des emplois seraient menacés aux US par l’automatisation, le débat est intense. D’un côté, il existe de nombreuses études similaires, comme par exemple celle sur le marché UK qui arrive à des résultats du même ordre de grandeur (au UK ou aux US). D’un autre côté, on trouve des études plus nuancées et moins pessimistes, comme celle de l’OCDE ou celle de McKinsey. C’est ce qui fait prendre à Luc Ferry une position plus rassurante dans son livre « La révolution transhumanisme ».  Je ne partage pas ce nouvel optimisme. Un des arguments est qu’une partie des tâches, et non pas des emplois, sont touchés. Mon expérience est que les entreprises ont acquis la capacité à redistribuer les tâches pour transformer les gains en efficacité en réduction de coûts salariaux, en dehors d’une hypothèse de croissance.

Ce qui me range dans le camp de l’étude Frey-Osborne, c’est que les arguments des conservateurs reposent sur une analyse du passé sur ce qu’on peut attendre des progrès de l’Intelligence Artificielle. Il me semble imprudent de s’appuyer sur toutes les promesses non-tenues des décennies précédentes pour en conclure que l’automatisation poursuit une lente progression « as usal ». Je vous renvoie au deuxième livre de Erik Brynjolfsson et Andrew McAfee, « The Second Machine Age », pour vous convaincre qu’une nouvelle vague d’automatisation arrive à grand pas, avec une accélération spectaculaire lors des dernières années de ce qui est possible. Les auteurs reviennent en détail sur des avancées telles que les diagnostics médicaux par une intelligence artificielle, les véhicules autonomes ou les robots qui écrivent des articles pour les journaux. Pour reprendre une de leurs citations : « Computers and robots are acquiring our ordinary skills at an extraordinary rate”. Je viens de passer une semaine à la Singularity University et les exemples plus récents présentés pendant cet “executive program” renforcent et amplifient les messages du “Second Machine Age”. Il est assez juste de remarquer, comme le fait Erik Brynjolfson dans un de ses exposés récents, que nous nous ne sommes pas « en crise, mais en transformation », mais cela ne change pas grand-chose au défi qui nous est posé. Dans ce même livre les auteurs nous disent que la transformation produite par la technologie est bénéfique … mais pose des « défis épineux ».

Les usines « sans humains » sont déjà là, les exemples sont multiples, de différentes tailles et dans différents domaines. L’exemple de l’usine de Sharp pour produire des dalles LCD, que j’ai pu visiter personnellement, est spectaculaire : moins de 20 personnes pour plus d’un kilomètre carré d’usine, cette visite, qui date déjà de plusieurs années, m’a profondément marquée. L’exemple de l’usine de fabrication de Tesla est non moins exemplaire, à la fois par le choix de la relocalisation et l’automatisation la plus poussée possible. Le cas de l’usine de Sélestat du groupe SALM est un peu moins spectaculaire, mais tout aussi instructif.  Le fait que le monde change aussi vite sous nos yeux doit d’ailleurs nous conduire à beaucoup de prudence sur les études que je viens de citer. Comme le remarque Neil Jacobstein, que j’ai eu le plaisir d’écouter sur ce sujet à la Singularity University, ces études s’appuient sur une continuité des types de tâches à effectuer (ce qui permet d’appliquer le peigne de l’analyse de la future capacité à automatiser), une sorte de « everything being equal », qui est probablement valide sur une courte échelle (quelques années) mais beaucoup plus discutable sur quelques décennies.

2.2. Il va falloir du temps pour remplacer complètement les humains dans les processus


Comme je le remarquais dans mon billet précédent, la route vers l’automatisation n’est pas simple. Les annonces célèbres de Foxcon qui  voulait remplacer ses 300 000 employés par un million de robots n’ont pas été suivies d’effets notables pour l’instant. En revanche, l’automatisation des entrepôts d’Amazon avec des robot KIVA  est une réalité, tout comme celle des usines « sans humains » que nous avons mentionnées. Cette réalité contrastée s’explique par le fait que l’automatisation des tâches non répétitives reste complexe. Plus précisément, les progrès en apprentissage – en particulier le deep learning – sont spectaculaires lorsque la question à résoudre est précise et lorsqu’il existe beaucoup de données pour apprendre. En revanche, s’il y a peu de données (s’il faut extrapoler sur peu de faits, le « sens commun » devient fondamental et cela reste un sujet difficile) et surtout si l’objectif est mal défini (et encore plus lorsqu’il s’agit de définir ses propres objectifs), l’être humain conserve pour quelques temps un avantage sur la machine. Ceci conduit à un article récent de McKinsey intitulé  « Where machines could replace humans—and where they can’t (yet) » qui aboutit au même ordre de grandeur sur ce qui est substituable et ce qui ne l’est pas. Pour comprendre ce qui est déjà possible et ce qui ne l’est pas encore, je vous recommande « What Artificial Intelligence Can and Can’t Do Right Now » de Andrew Ng. Mais les limites d’aujourd’hui ne sont pas celles de demain !

Une des conséquences de l’état de l’art en IA est que l’automatisation des emplois peut commencer par des emplois d’experts et non de généralistes. C’est ce qu’expliquent Brynjolfson et McAffe : «  As the cognitive scientist Steven Pinker puts it, “The main lesson of thirty-five years of AI research is that the hard problems are easy and the easy problems are hard. . . . As the new generation of intelligent devices appears, it will be the stock analysts and petrochemical engineers and parole board members who are in danger of being replaced by machines. The gardeners, receptionists, and cooks are secure in their jobs for decades to come.”  C’est précisément ce qui m’a frappé pendant ma semaine à la Singularity University : les exemples abondent de domaines pour lesquels l’algorithme fait mieux que l’humain, mais ce sont précisément des domaines d’experts avec une question bien définie (quel portefeuille d’investissement construire, quel diagnostic sur une tumeur possiblement cancéreuse, …) et une très grande volumétrie de données disponibles. Grace au groupe de travail de l’Académie des Technologies qui poursuit son enquête sur les avancées “récentes” de l’IA et de l’apprentissage, ma conviction se conforte que, même si la date est incertaine, la tendance à l’automatisation des emplois du rapport Frey-Osborne est la bonne.

Cette notion d’automatisation des emplois est un raccourci qui est probablement trompeur, dans le sens que plutôt d’avoir des robots et des logiciels d’intelligence artificielle qui vont remplacer des humains un par un, c’est l’environnement complet qui devient “intelligent”. La combinaison de robots, d’objets connectés, de senseurs, et de logiciels “intelligents” ubiquitaires (répartis depuis le cloud jusque dans l’ensemble des processeurs invisibles qui nous entourent) crée l’environnement de travail “assisté” dans lequel moins d’humains réalisent plus de choses, mieux et plus vite.  L’article de McKinsey, « Four fundamentals of workplace automation » explique que « Jobs will be redefined before they are eliminated » et insiste sur cette transformation progressive des activités dans ce nouvel environment. Cette transformation par l’automatisation ubiquitaire est plus “douce”, mais elle n’en est pas moins disruptive.

2.3. Transformation du paysage de l’emploi


Dans le précédent billet j’ai déjà cité abondamment l’article de Susan Lund, James Manyika et Sree Ramaswamy, intitulé « Preparing for a new era of work » (Kc Kinsey Global Institute), qui me semble profondément pertinent. Pour simplifier voire caricaturer, il propose de séparer les emplois en trois catégories : la production, les transactions et les interactions. Les deux premières catégories sont celles qui vont être massivement touchées par l’automatisation : les emplois de production sont – dans leur grande majorité – remplacé par des robots tandis que les emplois liés aux transactions vont être décimés par l’utilisation de l’intelligence artificielle, même si cela prendra un peu plus de temps – cf.la section précédente. Il reste, pour un temps plus long, le domaine des métiers d’interaction qui peut résister plus longtemps. Ce mot « interaction » serait complexe à définir puisqu’il fait référence aux interactions entre humains et s’oppose à la catégorie précédente par un contenu « non-transactionnel » sur un registre émotionnel (il y a une certaine circularité dans l’argument, et des spécialistes de robotique m’ont fait remarquer que de nombreux robots ont précisément un objectif d’interaction, y compris avec des humains). Je trouve néanmoins cette distinction intéressante, et je suis plutôt d’accord avec la proposition des auteurs. Les emplois de demain seront très probablement caractérisés par les échanges entre humain dans des dimensions émotionnelles, affectives, artistiques qui dépasseront le cadre de l’automatisation tout en profitant de ce nouvel « environnement intelligent ». Par exemple, le jardinier, le masseur ou le plombier de demain seront des métiers technologiques, collaboratifs et sociaux, dans le sens ou l’environnement intelligent déchargera de certaines activités pour se concentrer sur l’essentiel (par exemple, le sens et le plaisir du jardin).


Dans cet univers qui se dessine, tout ce qui s’automatise devient une commodité, la valeur perçue se trouve dans les émotions et les interactions. C’est précisément une des thèses du best-seller déjà ancien de Daniel Pink, « A Whole New Mind », qui caractérise les métiers de demain par une « prévalence du cerveau droit sur le cerveau gauche » - à ne pas prendre au pied de la lettre mais dans le sens communément admis même si discutable. On retrouve dans son livre les talents de demain comme le « story telling », le « design », la « créativité », l’empathie ou le jeu. Ces métiers d’interaction de demain ne sont pas issus de nouveaux domaines à créer, mais pour leur grande majorité la continuité des métiers d’interaction d’aujourd’hui.  Santé, bien-être, ordre public, éducation et distraction vont continuer à être les principaux fournisseurs de travail pour les décennies à venir.

Le jardinier du futur utilise probablement un ou plusieurs robots, mais il vend une « expérience » - dans le sens où il raconte une histoire. Ce jardinier n’est pas forcément isolé, il peut profiter d’une communauté qui lui fournit du contenu – une éducation permanente – qui lui permet de vous toucher en faisant le lien entre votre jardin et vos vacances. Il peut également profiter d’une plateforme technologique qui lui fournit les robots autonomes qui vont tondre la pelouse ou tailler la haie. Il est probable également que ce jardinier « programme » le système (jardin + robots + environnement) avec la parole. Pour reprendre une citation d’un des membres de Singularity University : « We won’t program computers we’ll train them like dogs”.  Je crois beaucoup plus à cette vision qu’à la théorie selon laquelle nous aurons des ordinateurs tellement intelligents que cela signifierait la fin de la programmation. Ce qui est sûr, c’est que le sens de “programmer” et de qu’est le “code” va évoluer, mais l’activité de programmation d’expérience va au contraire se développer de plus en plus au fur et à mesure que l’environnement devient intelligent. Le robot que le jardiner va utiliser sera connecté et le dialogue avec le jardinier sera plus riche qu’une simple séquence d’opérations contextuelles. Pour rester dans la veine du Clue Train Manisfesto, je propose l’aphorisme suivant pour représenter la programmation de demain : « experiences are grown from conversations ».


3. Iconomie: Vision cible positive d’une société très fortement automatisée



3.1. Un maillage de plateformes et de micro-entreprises


Ma vision du paysage de l’emploi est un réseau multi-échelle maillé de structures de toutes tailles, depuis les grandes entreprises multinationales d’aujourd’hui jusqu’aux autoentrepreneurs, dans lequel le mouvement de polarisation (consolidation des grandes plateformes et multiplication des pico-entreprises) se poursuit et s’amplifie. Le point de départ de mon raisonnement est que nous aurons toujours des entreprises dans 20 ou 30 ans, et que le phénomène d’ubérisation du travail n’aura pas dissout le concept de l’entreprise. Je n’y reviens pas, j’ai traité en détail ce sujet dans mon billet précédent. Pour résumer, la complexité croissante du monde exige le travail synchrone, ce que remarquent tous les auteurs de la Silicon Valley, d’Eric Ries à Eric Schmitt. Ce sujet fait débat, ma position consiste à dire que les coûts de transaction, pour reprendre l’analyse de Coase et Williamson, reste minimisé lorsque les équipes cross-fonctionnelles modernes de développement produit sont co-localisées, synchronisées par des rituels et une vision « incarnée » commune et unifiée par un ensemble de techniques qui font des lieux un espace collaboratif (le « visual management » étant un exemple). L’évolution des technologies de communication (de la téléprésence à Hololens) déplace les frontières de ce qui est possible à distance en « mode plateforme », mais le même progrès technologique renforce le potentiel de l’environnement intelligent comme outil collaboratif.

La mondialisation et la numérisation conduisent à la concentration. Ceci est très bien expliqué par les penseurs de l’iconomie comme Michel Volle. Les raisons sont multiples et profondes. L’économie numérique est principalement une économie de coûts fixes, ce qui favorise l’économie d’échelle. Bien plus important encore, les effets de réseaux – en particulier dans les marchés biface et dans le développement d’écosystèmes autour de plateformes - et les lois de réseau de type Metcalfe donnent un avantage important au plus gros joueur (souvent le premier mais pas forcément). Je vous renvoie à l’analyse de la valeur des réseaux sociaux pour voir un exemple ou les équations de renforcement de la position dominante sont encore plus forte que la loi de Metcalfe.  Dans le livre de Brynjolfson et McAffee, on lit: “Each time a market becomes more digital, these winner-take-all economics become a little more compelling”. Cette concentration ne produit pas plus d’emplois, d’autant plus qu’elle est nourrie par l’augmentation exponentielle des capacités technologiques et par l’automatisation que nous venons d’évoquer dans la partie précédente.

Heureusement, la concentration des plateformes conduit également à la croissance des écosystèmes qui leur sont associés, ce qui peut créer des opportunités pour une multiplicité d’acteurs locaux, tout comme un arbre qui grandit porte plus de feuilles. Cette croissance de la « frontière » peut poser question – elle peut sembler marquée par un optimisme technophile naïf -, mais elle est nourrie par l’explosion exponentielles des capacités technologiques et sur la tendance de fond (qui est liée à cette explosion) de mieux servir les individus (le mythique « segment of one ») et les communautés. Le second point va être développé dans le reste de cette deuxième partie, revenons donc sur le premier. Prenons justement l’exemple des capacités d’Intelligence Artificielle développées et exposées par Google (cf. TensorFlow). Il est plus que probable que si cette démarche est couronnée de succès, elle va contribuer à la croissance forte de Google. Mais elle va également ouvrir des champs possibles à un rythme supérieur que ce que Google peut produire, ce qui signifie qu’une partie encore plus importante de valeur va apparaitre « à la frontière », lorsque d’autres acteurs vont utiliser ces technologies mise à disposition par Google pour résoudre d’autres problèmes que ceux qui intéressent Google. On voit la même chose avec la croissance d’iOS comme plateforme mobile : au fur et à mesure que les capacités sont ajoutées dans la plateforme de développement de l’iPhone – on pense ici bien sûr à Siri – le domaine fonctionnel rendu possible à la communauté des applications mobiles augmente plus vite que ce qu’Apple en retire pour ses propres fonctions.

3.2. Economie Quaternaire et services à la personne


L’économie quaternaire, un concept que nous devons en particulier à Michelle Debonneuil, propose une extension des trois secteurs traditionnels – primaire pour les matières premières, secondaire pour la fabrication et tertiaire pour les services - à un nouveau domaine dont les produits ne sont ni des biens, ni des services, mais « de nouveaux services incorporant des biens, la mise à disposition temporaire de biens, de personnes, ou de combinaisons de biens et de personnes ». L’évolution vers l’économie quaternaire est fort logiquement liée, comme le souligne Michelle Debonneuil, aux progrès des TIC qui permettent d’apporter des services véritablement personnalisés sur le lieu précis où ils sont nécessaires, y compris dans gestions des femmes et des hommes qui rendent ces services de façon courte et ponctuelle. Le développement de l’économie quaternaire est indissociable du domaine des « services à la personne », dont l’essor est l’aboutissement naturel d’une société post-industrielle. Cet essor est fort logiquement accéléré par l’automatisation telle que décrite dans la première partie puisque ces « services à la personne » sont les domaines dans lesquels les humains peuvent exercer une supériorité sur la machine.

Ces domaines sont fort nombreux et peuvent, sous certaines conditions, permettre la pleine occupation, sinon le plein emploi, de la population déplacée par l’automatisation. Listons les plus évidents : l’alimentation (dans sa phase « finale » de service à la personne, de la cuisine au restaurant), l’habillement, l’aménagement des habitations, la médecine, le bien-être, l’éducation et la culture, la distraction, l’art, etc. Pour la plupart de ces domaines, le 20e siècle a été un siècle d’industrialisation et d’orientation vers les produits. L’économie quaternaire remet le client au centre de l’expérience et s’intéresse plus au service reçu et perçu qu’aux produits sous-jacents. C’est cette remise au centre de l’interaction entre l’utilisateur et le fournisseur qui permet de « réinventer » des métiers de services à la personne. Cette analyse est partagée par Erik Brynjolfson et Andrew McAffee qui écrivent:  «  Results like these indicate that cooks, gardeners, repairmen, carpenters, dentists, and home health aides are not about to be replaced by machines in the short term ».

On pourrait me faire remarquer que cette vision de l’emploi en 2030, qui recoupe fortement des domaines de « service publics », conduit plutôt à l’augmentation du nombre de « fonctionnaires » qu’à leur diminution. Si le terme de fonctionnaire désigne de façon très large une personne financée par la collectivité, c’est probablement exact. Cela ne signifie pas que le nombre de personne ayant le statut de fonctionnaire doive augmenter, ni que le budget correspondant doive faire de même (ce qui semble clairement impossible de toute façon). Il a de nombreuses façons de contourner ce paradoxe, par exemple en appliquant à l’Etat les principes de l’Entreprise 3.0  pour réduire le poids de l’appareil de contrôle par rapport à l’appareil opérationnel. Ce n’est pas utopique, il existe de multiples exemples d’application des nouvelles structures de management dans les services publics dans d’autres pays. On peut également penser que les nouveaux modes de travail que nous allons continuer à décrire s’appliquent parfaitement à un grand nombre de services publics, à l’exception d’un tout petit nombre de fonctions régaliennes. Je pourrais pousser la malice à faire l’hypothèse que le déséquilibre du budget de l’Etat vient du trop grand nombre de personnes « payées pour leur cerveau gauche » (une autre façon de parler de ceux qui analysent et contrôlent au lieu de faire). Enfin, le grand mouvement de l’automatisation des fonctions transactionnelles évoqué dans la première partie offre une possibilité à l’Etat de redistribuer ces économies de fonctionnement vers des rôles d’interaction et de lien social.


3.3. L’artisanat et la personnalisation de masse


Je reviens ici sur une idée profonde de Avi Reichental - dont j’ai déjà recommandé l’exposé TED - : La production de masse est une parenthèse historique, et nous allons pouvoir revenir au confort du sur-mesure dans de nombreux domaines grâce aux progrès de la technologie, en particulier l’impression 3D. Avi Reichental illustre cette idée sur le principe d’une chaussure qui combine l’impression 3D d’une semelle uniquement adaptée à la bio-morphologie de l’utilisateur avec l’assemblage/fabrication locale. La personnalisation de masse est due à la fois au progrès technologique (numérisation de la conception, impression 3D, automatisation de l’assemblage, …) qui fait émerger des plateformes mise à disposition du plus grand nombre, et le besoin de retrouver une expérience sociale de proximité. Il n’y a donc pas que l’approche technologique : un certain nombre de métiers d’artisanat d’art pourraient redevenir pertinents.

L’idée que nous allons tous vivre de notre créativité tandis que les machines s’occuperont de la production est naïve et probablement fausse. Le tissu de multinationales évoqué dans la première partie a besoin de nouveaux talents, et en particulier de créatifs et de designers, mais dans un petit nombre par rapport aux laissés pour compte de l’automatisation. En revanche, le monde « frontière » des opportunités de services, qu’il s’agisse d’adaptation au besoin d’une communauté ou d’un individu, ou encore d’accompagnement et de mise en scène –  par exemple, l’art de la parole a toujours été associé à la vente de vêtements - a une structure beaucoup plus riche et étendue que l’on pourrait qualifier de « fractale » ou de « multi-échelle ». Dans ce monde de l’interaction, il existe des opportunités à différents niveaux de talents, qui peuvent coexister. Le service d’interaction se déplace difficilement (en tout cas avec un coût) contrairement à une expérience digitale. Un service moyen fourni par un talent médiocre peut coexister avec un service plus élaboré. Les « artisans de la personnalisation » de masse peuvent opérer sur des échelles géographiques différentes selon leur talent, dessinant une « power law »  des bassins de chalandise. Cette coexistence ouvre la voie, surtout avec le support économique de l’état sur lequel nous allons revenir, à un marché abondant de services à la personne de toutes sorte. Cette renaissance de « l’artisan de proximité » risque de se trouver facilité par une pression communautaire – que l’on commence déjà à voir à l’œuvre - et une priorisation de ce qui est local sur ce qui est global, en contre-réaction à la mondialisation.

Cette personnalisation des services à la personne est donc une double conséquence du progrès technologique : à la fois parce que le monde numérique facilite la personnalisation (dimension technique) mais aussi parce que la transformation due à l’automatisation (première partie) va rendre les services personnalisés d’interaction à la fois nécessaires et accessibles (nous reviendrons sur la dimension économique dans la dernière partie).  Si l’on applique cette idée de la personnalisation de masse à l’ensemble des domaines de services de la section précédente, on voit émerger ce qu’on pourrait qualifier de démocratisation de « privilèges aristocratiques du 19e siècle ». Non seulement l’accès aux vêtements, aux meubles sur mesure pourrait redevenir courant (ce qui était le cas il y a un siècle), mais les services d’un cuisinier, d’un tuteur, d’un coiffeur ou d’un masseur à domicile pourraient se démocratiser. De façon plus spectaculaire, la contribution d’un revenu universel pourrait permettre de rendre les métiers et les œuvres d’art accessible à (presque) tous. Dans un système économique qui permet à chacun de disposer d’un premier niveau de revenu garanti, il est possible à un beaucoup plus grand nombre d’artistes amateurs de vivre de leur art, et donc de permettre de la sorte à des citoyens ordinaires d’avoir le plaisir de posséder un tableau – par exemple – unique.




4. Les défis de la transition : accompagner le choc d’un changement de civilisation


4.1 La menace des robots de compagnie anthropomorphes       


L’essor de la robotique au Japon montre que l’interaction émotionnelle avec des humains n’est pas un champ exclu aux robots. En fait ce domaine n’est pas particulièrement complexe, il n’est pas très difficile de donner des émotions aux robots et aux programmes – c’est un champ de recherche et d’expérimentation en plein essor - et il est encore moins difficile d’apprendre aux programmes à « lire nos émotions ». Comprendre nos émotions à partir d’un signal sonore (notre voix) ou visuel (la vidéo de notre visage) est un exemple type de problème de reconnaissance que nous avons évoqué dans la première partie, avec des réponses claires et des milliards d’exemple. Ce n’est pas une surprise de constater que le deep learning donne déjà d’excellent résultats, que chacun peut tester grâce à des API ouvertes (ou en téléchargeant « Moodies » sur son smartphone). Pire encore, il est très facile de tromper nos neurones miroirs avec des têtes artificielles qui s’adaptent à nos expressions faciales. J’en ai fait l’expérience surréaliste avec une tête artificielle fort simple il y a déjà 10 ans dans un laboratoire IBM. Pour résumer, il ne faut pas considérer que le domaine « emploi d’interaction » est hors de portée des progrès de l’automatisation.



En revanche, il y a un enjeu majeur de société car l’automatisation de l’interaction n’est pas un progrès en soi. Contrairement à la production et aux transactions, les gains en vitesse et précision qui sont souvent les objectifs de l’automatisation ne sont pas des enjeux majeurs. Il y a donc plus de liberté pour faire de l’automatisation un choix de société. L’enjeu est tout simplement d’accompagner une transformation plus harmonieuse vers l’iconomie en conservant pour de nombreuses décennies la primauté de l’humain dans les métiers de l’interaction. Si la société laisse le domaine de l’interaction être envahi par la robotisation, nous allons au-devant d’une véritable crise. Laissés à la loi du marché et du possible technologique, ces robots vont apparaitre et nous obtiendrons dans le meilleur des cas une société à deux vitesses et une multitude d’exclus. Dans le pire des cas, les tensions sociales seront insupportables et cela nous conduira à la guerre civile. Le Japon est un cas particulier car il y a un fort déficit démographique à cause du vieillissement de la population, mais de façon générale et simplifiée, il faut réserver les métiers d’interaction aux humains déplacés des fonctions de production et de transaction.

De fait, étant plutôt optimiste de nature, je pense que les pays démocratiques se protégeront en réglementant l’utilisation de robots humanoïdes. Cette réglementation n’est pas forcément une simple interdiction, cela peut être une forme de taxation qui permet à l’humain de rester compétitif par rapport à la machine. Il y a probablement un équilibre entre une pression sociale de conserver des humains dans ces emplois – et on peut s’attendre à des réactions violentes face aux robots s’ils sont introduits dans des « customer-facing jobs » dans une société en crise du travail –, une fiscalité du travail qui reconnait l’interaction et la substitution de la machine par l’homme, et la réduction du coût du travail humain au moyen du revenu universel sur lequel je reviens dans la section suivante. Ce scénario de contrôle de l’utilisation de robots humanoïdes n’est ni simple ni tranquille, la protection qui sera réclamée par la population face à l’automatisation des fonctions de production et de transaction peut prendre des formes de protestations régressives, allant jusqu’à des surprises importantes lors d’élections J Au risque de me répéter, vouloir freiner les robots humanoïdes n’est pas un jugement technologique (le développement de ce type de robots est non seulement possible, il est inévitable), ni moral (il n’y a rien de répréhensible en soi à vouloir créer des machines avec lesquelles il est plus facile de communiquer car elles nous ressemblent) mais systémique. Il ne s’agit que d’un réglage de vitesse de flux, au sein d’un écosystème avec des activités qui disparaissent et apparaissent, mais qui me semble essentiel. Il faut se donner le temps sur plusieurs générations pour absorber les transformations que la technologie va rendre possible. Notons également qu’il est quasi-impossible de lutter contre l’automatisation des fonctions de production et de transaction dans une économie mondialisée (il y aura toujours un acteur quelque part pour tirer le meilleur parti économique de la technologie), tandis que l’activité d’interaction n’est pas dé-localisable par définition et reste donc sous la juridiction économique des états.

4.2. Un revenu universel pour permettre à chacun d’exister


Le revenu universel – ou revenu de base, en suivant l’expression anglaise « Universal Basic Income » - apparait naturellement comme solution pour faciliter la transition vers l’iconomie. Un des spécialistes mondiaux du sujet, Guy Standing, a introduit le revenu universel pour éviter le « précariat » qui est précisément la condition des homme déclassés dans une société qui n’a plus besoin de leur activité : « [precariat] specifically, is the condition of lack of job security, including intermittent employment or underemployment and the resultant precarious existence ». Le revenu universel consiste à garantir à chacun un niveau minimum de ressources, sans conditions, pour permettre à tous de vivre dignement. Il est souvent présenté, comme par exemple par Gaspard Koenig qui est un des spécialistes français, comme un « nouveau droit de l’homme ». Je vous renvoie au site « Génération libre » pour plus de détails sur LIBER. Le sujet du revenu universel s’est d’ailleurs invité fort logiquement dans la campagne politique, avec des prises de positions de Benoit Hamon et de Nathalie Kosciusko-Morizet, ainsi que de notre premier ministre.  En suivant les pas de Guy Standing, ces femmes et hommes politiques constatent l’éclatement du marché du travail – sur lequel nous reviendrons dans la prochaine section-, la désindustrialisation et la création de laissés pour compte par une vague d’automatisation qui ne fait que s’amplifier. Le revenu universel est donc un premier réflexe de protection par la solidarité, ainsi, dans le cas de la France, une remise à plat d’un système de protection sociale complexe qui contient déjà les germes d’un revenu universel de base.

D’un point de vue systémique, l’objectif du revenu universel n’est pas de permettre l’oisiveté pour tous, mais de déplacer les contraintes de rentabilité des activités humaines. Très logiquement, c’est une façon de redonner au travail humain un peu de compétitivité vis-à-vis de celui de la machine. Il est donc logique de penser au revenu universel pour lutter contre les effets indésirables d’une automatisation trop rapide. De fait, l’objectif du revenu universel est de déplacer « une barrière de potentiel » pour permettre au plus grand nombre d’accéder et de réussir dans un statut d’entrepreneur.

Cette idée de « barrière de potentiel » est une métaphore qui illustre le fait qu’il existe des multiples opportunités de travail – en particulier dans les services à la personne pour tous – mais nous n’avons pas tous le talent d’en faire une activité rentable économiquement. Le revenu universel « déplace la barrière de potentiel » dans le sens où il permet à un plus grand nombre d’autoentrepreneurs de produire un complément de revenu à partir de leurs talents, à la fois en diminuant la prise de risque et le volume d’affaire à générer pour que l’autoentreprise soit viable. Cette position qui voit le revenu universel non pas comme une nouvelle forme d’assistance mais comme un démultiplicateur est l’objet de nombreux débats voire de nombreuses critiques. Je reste cependant convaincu qu’il y a une véritable adéquation avec le concept de la distribution « multi-échelle » (ou de « power law ») des talents et des opportunités, évoqué dans la deuxième partie. Autrement dit, pour que le « gisement des services à la personne » représente un « bassin d’activité suffisamment vaste » pour offrir du travail à la majorité des citoyens, il faut un modèle économique qui permette de vivre dès que le service fonctionne sur une micro-communauté, ce qui est rendu possible par le revenu de base universel. Je conjecture que la structure cible des services à la personne dans une iconomie de pleine activité est une structure de petits mondes au sens de Duncan Watts (ce qui nous renvoie à des billets très anciens de ce blog).

En effet, il ne s’agit pas d’assurer « simplement » à chacun un revenu de base, mais véritablement une opportunité de « Universal Inclusive Contribution » - pour faire le parallèle avec le concept original de « Universal Basic Income » : permettre à chacun de contribuer à la collectivité, de trouver sa « place » par un travail qui contribue à la société, ce que permet le modèle fractal des services d’interaction. Autrement dit, le revenu universel doit être l’opposé de l’assignement à résidence dont parle Emmanuel Macron, sans être non plus un travail « bénévole forcé ». Lors de mon intervention du 12 Octobre, je me suis permis d’utiliser l’image du statut « d’intermittent du spectacle » pour tous J Le débat en France autour de ce statut fait que cet emprunt n’est probablement pas judicieux, mais il y pourtant dans ce statut de nombreux points positifs puisqu’il joue précisément, avec succès, un rôle incitatif en fournissant un complément de revenu. Ce statut permet d’avoir une population active employées dans les métiers du spectacle qui est nettement supérieure à ce que la loi du marché produirait (une autre forme de « déplacement de barrière de potentiel »). Il y a aujourd’hui environ un million d’auto-entrepreneurs, il faut créer les conditions pour une augmentation de presque un ordre de grandeur. Je n’ai pas de « boule de cristal », mais il me semble clair que la répartition des statuts entre employés, « freelance » (cf. la section suivante) et autoentrepreneurs va devenir beaucoup plus équilibrée en 2030 qu’elle ne l’est aujourd’hui.


4.3. Fin de l’emploi, vive le travail ! Un nouveau contrat social


La diminution des emplois salariés a déjà commencé. J’emprunte le titre de cette dernière section au livre de Bernard Stiegler.  L’exemple du « cuisinier à domicile » permet de comprendre ce concept un peu théorique de « talent multi-échelle ». Le cuisinier médiocre est condamné à ne faire souffrir que ses proches de son absence de talents, mais celui qui a un petit talent peut l’exercer dans son voisinage proche (par exemple son immeuble) comme un service de proximité – pour dépanner. L’échelle suivante, d’autoentrepreneur non rentable est de procurer ses services dans son quartier. Plus le domaine grandit, plus on se rapproche d’un véritable statut d’artisan-entrepreneur. Un talent reconnu à l’échelle d’une ville permet de créer une entreprise traditionnelle, et on passe ensuite dans le domaine du professionnel reconnu. Compte-tenu du niveau de vie des Français, il y a peu d’emplois de cuisinier à domicile – même si l’on introduit des plateformes d’intermédiation de type Uber – mais si l’on regarde les opportunités créées par les vies complexes des salariés, il y a beaucoup de travail. C’est l’enjeu du modèle « intermittent du service à la personne ».
S’il est possible de fournir un travail pour tous, il semble en revanche probable que le modèle économique que je viens d’esquisser s’accompagne d’une décroissance des emplois, ce qui est la thèse du livre de Stiegler.  Thierry Breton lors de son intervention pendant le même séminaire du 12 Octobre nous a parlé de la « Gig economy ». Le président d’ATOS constate qu’un nombre croissant des jeunes recrutés ne souhaitent plus un emploi salarié et préfère la liberté d’un mode « freelance ». Pendant la semaine à la Singularity University, j’ai entendu le même message : le « freelance » représente déjà 35% de la force de travail en 2015 et les spécialistes prévoient 50% en 2020. Cette transformation illustre la complexité et la richesse des entreprises qui combinent la force des « liens forts » – des noyaux de permanents unis par les valeurs de la marque – et des « liens faibles » – l’appel à la richesse encore plus grande des talents extérieurs à l’entreprise. J’utilise ici bien évidemment l’appellation de liens forts et faible en référence à la sociologie, un emprunt que j’ai fait de nombreuses fois.

Il ne faut pas se crisper sur cette dualité des statuts : elle correspond à des aspirations différentes pour ceux qui travaille et à un besoin des nouvelles formes d’entreprises. Dans le best-seller « Exponential Organizations », les auteurs décrivent l’organisation idéale, celle qui permet de s’adapter aux flux continu du changement exponentiel des technologies, avec des modes de travail qui reflètent une partie des idées exprimées ici. Nathaniel Calhoun a reconnu pendant cette semaine à la Singularity University que ce nouveau mode d’organisation crée une contrainte sur les employés:  «  Exponential Organizations worsens the fate of labor ». Les auteurs de « Exponential Organizations » proposent l’acronyme SCALE qui signifie : "Staff" à la demande, Communautés, Algorithmes, effet de Levier sur les ressources et Engagement. IDEAS reflète les principes fondateurs : Interfaces (pour attirer les contributions externes),  Dashboards (pour décider à partir des mesures), Expérimentation, Autonomie et Social (Enterprise 2.0). Ces nouveaux modes d’organisation sont des leviers d’adaptabilité et de flexibilité, mais je rejoins Luc Ferry lorsqu’il souligne le besoin de régulation à cause de la brutalité du capitalisme à l’œuvre dans la révolution digitale (depuis les conditions Uber/Amazon jusqu’aux politiques d’évasion fiscale des GAFAs).

Pour conclure, il convient de souligner que ce nouveau mode de vie, en dehors du statut « traditionnel » de salarié, peut être aspirationnel.  Le travail de cuisinier à domicile est un travail noble, qui demande un goût de l’interaction avec les personnes en permettant de nourrir sa passion pour l’art culinaire. En revanche, une telle transformation de la société et de la culture représente un défi formidable qu’il faut accompagner. La réalisation de soi à travers une position salariée dans une entreprise, même si elle est récente dans l’histoire de l’humanité, a suffisamment marqué les dernières générations pour que l’adoption d’un modèle différent soit une révolution. Il y a de multiples éléments favorables. Comme l’a souligné Joël de Rosnay, les jeunes portent un regard différent que celui de leurs aînés sur le travail. Ils sont volontiers des « slashers », à la recherche de la passion et des interactions dans leurs activités professionnelles. Ils sont plus à la recherche de projets qui se renouvellent fréquemment (ce qui nourrit la « gig economy ») et vivent plus confortablement que les générations précédentes l’intrication entre la vie personnelle et la vie professionnelle. Néanmoins, à l’échelle de la société, cette évolution doit être accompagnée par la formation et l’éducation. Je termine en vous renvoyant à Michel Volle que j’avais déjà cité dans mon billet précédent : cette nouvelle économie des microentreprises et des services à la personne nécessite une revalorisation des compétences gestuelles et relationnelles.