1. Introduction
Le billet de ce jour part d’une constatation ironique : avec genAI, il est de plus en plus facile de faire semblant de travailler, de produire des discours creux qui sont pleins de truismes, donc difficiles à démonter, mais qui n’apportent rien. C’est comme si la digitalisation avait créé une « abstraction » du monde réel, permettant de faire « des discours sur la méthode » au lieu de travailler sur la réalité. Autrement dit, il est facile de passer beaucoup de temps sur la carte au lieu de s’intéresser au territoire. Ce « jumeau numérique du travail» (dans le mauvais sens du terme, puisqu’il n’y a pas de couplage) produit deux effets de bord néfastes. En premier lieu, il alimente les « bullshit jobs » de David Graeber. De plus, il conduit à une incapacité à prendre du recul sur la richesse et la complexité du réel, et à conclure que bientôt l’IA et ses agents vont tout remplacer.
Au même moment, le contrat social entre l’entreprise et ses employés se détériore et l’engagement décline en conséquence. Les chiffres du rapport Gallup de 2025 sont alarmants, « le niveau d’engagement mondial des personnes dans les entreprises et les organisations est tombé à 21 %, ce qui a coûté 438 milliards de dollars à l’économie mondiale », nous allons y revenir avec le livre salutaire d’Emmanuelle Duez. Les statistiques sur l’engagement des collaborateurs nous interrogent, et Philippe Silberzahn propose des réponses intéressantes qui ne sont pas vraiment encourageantes dans « Quand le système vacille: la fin du modèle mental de l’ascenseur social et ses conséquences ».
Le travail change, à la fois poussé et challengé par la technologie. L’intelligence artificielle, dont l’effet est décuplé par l’IA générative et les combinaisons hybrides et agentique, a déjà et va avoir de plus en plus un impact majeur sur la façon dont nous travaillons, y compris dans ce que nous ne ferons plus. Il faut accompagner cette transformation en partant du terrain : le lean est la meilleure façon de tirer de la valeur de l’IA en réduisant les risques et effets nocifs, c’est également une bonne approche pour pallier à certaines causes du désengagement.
Ce billet est organisé comme suit. La section 2 est consacrée au livre d’Emmanuelle Duez et à l’analyse d’une partie des causes du désengagement. Nous allons retrouver des sujets abordés autour du modèle CCEM et des perspectives nouvelles. Je conclurai cette section par une vision systémique qui relie le désengagement, la crise climatique, la crise de la compétitivité Européenne et les effets d’accélération de l’IA. Cela me permettra dans la section 3 de proposer une analyse prospective sur la transformation du travail par les agents intelligents. Je serai assez bref car j’ai abordé ce sujet dans des billets précédents, mais le domaine bouge vite et un ensemble d’articles parus pendant l’été permettent de voir un peu plus clair. Après avoir traité le sujet de façon globale, je vais m’intéresser dans la section 4 au cas de la production de logiciel avec des agents, un sujet que je suis, es fonction, de façon plus proche. Sans surprise – par rapport à mes écrits précédents – je suis persuadé qu’une vraie révolution est en marche, mais qu’elle va mettre du temps à s’installer et qu’il s’agit plus d’un déplacement que de remplacement de l’activité humaine en termes de software engineering (pour simplifier, le vibe coding n’est pas le vibe engineering). Je terminerai ce billet en reprenant du recul et en renforçant l’analyse dialectique entre la carte et le territoire pour convoquer le lean thinking et sa pratique du « genchi genbutsu » pour aller voir sur le terrain, et de près, la nature du travail et ce qui relève de l’automatisation et ce qui relève de l’augmentation, du point de vue de l’intelligence artificielle.
2. Le Futur du Travail et ses Mutations
Le livre d’Emmanuelle Duez, « Ou sont passés nos rêves d’émancipation par le travail » est un livre court mais lumineux par la précision du diagnostic qu’il porte sur le désengagement évoqué en introduction. C’est une mine d’information, puisque chaque affirmation est soigneusement documentée (ce qui en fait un excellent livre de référence), et un discours superbement articulé sur les causes systémiques de ce désengagement. Je ne vais pas faire ici un résumé, car je vous recommande de vous procurer votre propre copie du livre et de digérer son contenu, mais souligner quatre points qui me semblent fondamentaux :
1. L’engagement des salariés dans leurs entreprises décroit depuis des décennies, mais cela s’est accéléré depuis COVID, et de façon plus notable en France. Emmanuelle Duez commence en citant les résultats de l’étude Gallup, en soulignant le déclassement très rapide de la France passée de la tête de classe à la fin du classement : « 85 % des actifs français se déclarent peu ou pas engagés au travail selon la dernière étude Gallup, ce qui positionne la France en 36e position sur 38 en matière d’engagement ». Nous sommes depuis quelques années, promenés de crise en crise, et nous n’apportons pas assez d’attention à ces chiffres : « Dans ce contexte de « permacrise», il faut désormais ajouter cette vague géante, qui vient de loin, qui gronde, que tout le monde ressent, que certains regardent mais dont personne ne parle véritablement : l’érosion de l’engagement ». La « permacrise » change profondément la nature du travail et la façon dont nous percevons le monde : « Le terme « permacrise » désigne une période prolongée de crises multiples et interconnectées, rendant la situation mondiale instable et incertaine sur les plans économique, politique, social et environnemental. Notre époque est marquée par une mutation systémique : une transformation profonde, multidimensionnelle et accélérée qui bouleverse simultanément nos repères économiques, sociaux, politiques, environnementaux et technologiques. Cette mutation n’est pas une simple crise conjoncturelle mais une recomposition radicale de la manière dont le monde fonctionne ». Il est essentiel de réaliser l’ampleur du problème : « Alors que 70 % des salariés français déclaraient que le travail était très important dans leur vie en 1999, ils ne sont plus que 19 % aujourd’hui ».
2. Cette baisse d’engagement est un facteur clé dans la baisse de productivité que l’on constate en Europe et surtout en France. Nous l’avons vu dans l’introduction, la baisse de l’engagement est un problème économique majeur : « l’impact du désengagement sur la productivité horaire est tout aussi malheureux. Elle a baissé de 5,2 % en France entre le dernier trimestre 2019 et le deuxième trimestre 2023 alors même que la France affichait, de 1986 à 2004, la productivité horaire la plus élevée de tous les pays de l’OCDE. Bilan des courses ? Un déclassement français ». C’est un problème Européen, mais encore plus un problème français : « Un ralentissement de la productivité s’observe partout en Europe, à l’inverse des États-Unis, témoignant de facteurs communs européens comme le prix de l’énergie ou la dynamique d’innovation. Mais si le décrochage de la productivité européenne est de l’ordre de 1 point, la productivité en France accuse un retard d’environ 5,5 points en 2023 ».
3. Cette baisse d’engagement n’est pas un comportement irrationnel causé par un changement de culture, c’est un comportement rationnel face à un environnement professionnel devenu plus hostile. Si une partie du désengagement est liée à la complexité des organisations et à la difficulté grandissante de faire pour l’employé entre son travail et la création de valeur de son entreprise, une autre partie est la conséquence d’un partage de la valeur plus défavorable. Emmanuelle Duez cite Antoine Foucher, « Non seulement les salaires progressent moins vite qu’auparavant, mais la part des salaires gagnés que les travailleurs gardent sur leur compte est beaucoup moins importante qu’auparavant», et souligne : « Un travail digne, c’est aussi un travail où l’on comprend et accepte la valeur payée et la valeur perçue ». Cette valeur qui baisse, c’est aussi simplement la conséquence de la baisse de la compétitivité de la France : « Dans une tribune du Monde, Philippe Aghion et Céline Antonin, économistes, reviennent sur les causes spécifiquement françaises du déclassement économique, pointant le fait que les organisations françaises ne parviennent pas à s’adapter à un contexte économique technologique et social en mutation ». Je vous renvoie également à l’excellent billet de Philippe Silberzahn sur le rapport Draghi, qui reste parfaitement pertinent un an après sa parution. Une partie de ce désengagement est donc une conséquence naturelle du fait que les jeunes salariés ont aujourd’hui un pouvoir d’achat, particulièrement en termes d’immobilier, sensiblement plus bas que leurs parents : « Aussi, « l’épidémie de flemme » et l’usure des travailleurs relatée par Jérôme Fourquet ou Olivier Babeau n’est autre qu’une forme de rationalité des Homo rationalis. Pour s’y retrouver, les salariés développent des mécanismes de compensation et font leurs propres recettes » . Ceci explique le changement radical du rapport au travail évoqué plus haut : « Alors qu’en 2008, 62 % des Français souhaitaient gagner plus d’argent en acceptant d’avoir moins de temps libre, la tendance s’est complètement inversée : en 2022, 61 % des Français préfèrent gagner moins d’argent mais avoir plus de temps ».
4. Il n’y a pas de solution magique contre le désengagement, mais le retournement commence par regarder le travail tel qu’il est, sur le terrain. Pour commencer à détricoter le faisceau complexe des causes du désengagement, Emmanuelle Duez nous invite à s’intéresser au réel, à commencer par le travail sur le terrain : « S’intéresser au « travail réel », c’est donc descendre dans les entreprises, se coltiner la réalité humaine telle qu’elle est, s’intéresser à la façon dont les travailleurs exécutent ou non leurs tâches dans le contexte concret et dynamique de leur activité propre ». Aux antipodes des abstractions et des propos convenus sur le travail vu à travers un Powerpoint, il faut commencer par les actes quotidiens qui créent la valeur : « Revaloriser le vrai et le beau travail est sûrement la manière la plus probante de répondre à la perte de sens généralisée et au sentiment d’absurdité décrit par David Graeber dans son ouvrage Bullshit jobs. Il y évoque ces jobs perçus comme « vides de sens » par ceux qui les occupent, parce qu’ils ne perçoivent plus l’utilité de leur métier ». Ce livre ne contient pas de recettes simples, car le sujet est éminemment complexe, mais il est au contraire un appel à la confrontation des idées et des énergies : « L’entreprise maison n’a pas peur d’armer les cerveaux, les regards, les esprits critiques, les doutes. Elle n’a pas peur de faire l’apologie de la nuance et du débat contradictoire ».
Le livre d’Emmanuelle Duez contient également des pistes pour réarmer l’engagement, mais je vais m’arrêter sur l’excellent diagnostic systémique qui est représenté par la figure suivante. Ce schéma n’a pas la prétention de résumer le livre qui est très riche et couvre une perspective très large, c’est plutôt une façon de souligner une partie du problème posé et de montrer qu’il est fortement lié aux thèmes abordés dans ce blog en général et autour de CCEM (couplage énergie/économie/climat) en particulier. Cette figure représente une partie du graphe d’influence entre quatre problèmes qui caractérisent l’état de permacrise : la faiblesse économique de l’Europe (et le rapport de Mario Draghi est une excellente synthèse), la baisse brutale de l’engagement (pour quel le livre d’Emmanuelle Duez est une référence), la mutation en cours et à venir du travail causé par la digitalisation et la montée de l’IA (ce à quoi va être consacrée la suite de ce billet) et la crise climatique (je vous renvoie par exemple à mon précédent billet « Transition Écologique et Paradoxe de l’Inaction ». Pour chacun des « macro-problèmes », j’ai représenté des cercles imbriqués lorsqu’il y a une spécificité française au sein d’un périmètre plus vaste, Europe ou OCDE. Si vous lisez le livre d’Emmanuelle Duez, vous verrez d’autres causes systémiques au désengagement, mais cette figure est déjà un bon point de départ.
Ce schéma est extrait d’une présentation CCEM, car cette question systémique est au cœur de ce que j’essaye de faire pour analyser les réactions sociétales probables face au réchauffement climatique qui vient. La prochaine évolution du modèle en 2026 va s’intéresser au couplage entre climat / inégalités / digital / désengagement. Les bulles vertes de la figure sont des premiers axes de réflexions, mais elles vont mériter plus de travail. Le terme de « flywheel » qui apparaît reflète la conviction systémique évoquée plus haut : il n’y a pas de « solution » simple ou monolithique, il existe un ensemble de leviers très différents qui doivent être actionnés simultanément et dont l’action combinée, à terme et via un renforcement de dépendances, permettra de sortir du cercle vicieux dans lequel nous sommes engagés. Je suis parti du livre d’Emmanuelle Duez car il me semble la synthèse la plus affutée sur le sujet, mais j’aurai pu également utiliser d’autres ouvrages qui participent à mon diagnostic et permettent d’approfondir certaines des dimensions évoquées:
· « Le Chaos qui vient » de Peter Turchin
· « Homo Numericus » de Daniel Cohen
· « A l’assaut du réel » de Gerald Bronner
Pour terminer cette section, je vais me défouler et dire ce que je pense de l’acronyme BANI, qui serait « le nouveau VUCA ». BANI signifie Brittle, Anxious, Non-Linear and Incomprehensible. Là ou VUCA désigne l’environnement, BANI qualifie la perception de l’individu (du manager ou du politique) dans cet environnement. Je pense d’une part que ce décalage du phénomène vers le narrateur n’est pas un progrès : anxious et incomprehensible sont éminemment subjectifs et non-actionnables ; et d’autre part que passer de « complexe » à « non-linéaire » est un appauvrissement considérable de ce que nous enseigne la science des systèmes complexes. Les systèmes complexes ne sont pas incompréhensibles, ils échappent à notre réductionnisme et à notre volonté de contrôle. Lorsque le framework VUCA semble trop « policé » pour décrire l’état chaotique du monde, il me semble plus judicieux d’utiliser l’approche CYNEFIN.
3. Travailler avec des agents intelligents
J’ai déjà abordé ce sujet dans un billet précédent, « A Few Prospective Thoughts about Co-working with AI Agents », donc je vais me contenter aujourd’hui de développer quatre points :
- Le développement des agents construits autour de GenAI est en constant progrès et leur pénétration dans le monde de l’entreprise est inévitable. Après RAG et les progrès spectaculaires que GenAI a apportés à la recherche d’information (lire par exemple « AI is changing the structure of consulting firms »), la modularisation et l’orchestration ouvrent des champs d’action décuplés.
- Ce développement est inévitable, mais il prendra du temps. Comme pour les révolutions industrielles précédentes, il y a une viscosité de la transformation et une prééminence du réel (sauf pour le petit monde des activités purement digitales) qui impose des échelles de temps en années, voire plus.
- Cette vitesse n’est pas uniforme et le différentiel va créer des turbulences ; des disruptions sont à prévoir (même si cette transformation est un marathon, il vaut mieux ne pas se trouver à l’arrière de la course).
- Dans le monde de permacrise évoqué dans la section précédente, l’accélération de l’IA en générale et des agents hybrides construits autour de genAI en particulier, est un facteur de stress sur la société, qu’il s’agisse de désengagement ou d’inégalité.
L’arrivée des agents intelligents est une suite logique du développement de genAI et la forme la plus naturelle d’hybridation, qui est par expérience la meilleure façon de créer plus de valeur. La figure suivante exprime, de façon partielle et simplifiée, l'évolution des outils que nous avons produit avec GenAI. La première partie à gauche, en bleu, représente l’évolution des LLM, qui sont devenus multimodaux et ont été généralisés en « foundation models » (l’application de transformers à d’autres formes de séries temporelles), pendant que les approches RAG se développaient. En parallèle, les capacités des agents conversationnels « à bas de LLM » se sont étendues via l’apprentissage RLHF et l’introduction de formes de « reasonning » telles que le COT (Chain Of Toughts). Pour bien comprendre les progrès déjà réalisés et les utilisations de genAI d’aujourd’hui, je vous recommande l’article « Working with AI : Measuring the Occupational Implications of Generative AI » de Microsoft Research. Ce papier donne des statistiques fournies sur les utilisations les plus courantes (Search ; Analyse, manage and produce content ; Help to communicate more effectively ; Brainstorm : coach role) : « We find that information gathering, writing, and communicating with others are the most common user goals in Copilot conversations. In addition to being the most common user goals, information gathering and writing activities receive the most positive thumbs feedback and are the most successfully completed tasks. On the AI action side, we see that AI often acts in a service role to the human as a coach, advisor, or teacher that gathers information and explains it to the user. Furthermore, the activities that AI performs are very different from the user goals the AI assists: in 40% of conversations, these sets are disjoint». Cette citation illustre également la différence intéressante que l’article fait entre « user goal » (ce que l’utilisateur veut accomplir) et « AI action » (la sous-tâche déléguée à l’IA), ce qui donne une base intéressante pour explorer la tension entre « augmentation » et « substitution ». Une fois ces succès établis, l’agentification est une étape naturelle pour transformer des « recettes d’usage » en composants réutilisables et composables. La partie médiane de la figure, en vert, exprime les capacités et les progrès que doivent faire ces systèmes agentiques, avant d’arriver à la partie droite qui représente le but (soulignée par la couleur rouge) : des agents cognitifs qui sont des « PhDs à notre disposition » (avec la référence sur la figure à l’essai de Dario Amodei pour répondre à toutes nos questions, ou des agents autonomes qui seront devenus suffisamment fiables pour exécuter des tâches complexes sans supervision. Notons que le terme ACI (Artificial Cognitive Intelligence) que j’utilise en opposition à AGI correspond à la distinction que fait Yann Le Cun dans cet excellent interview. D’une certaine façon la partie médiane en vert représente les progrès à faire pour adresser les limites actuelles, très bien exposées dans « The Gen AI divide », tandis que les possibilités d’orchestration se décuplent avec le déploiement massif de MCP (écouter « Why MCP really is a big deal | Model Context Protocol with Tim Berglund ».
Je cite le papier MIT/NANDA « The GenAI Divide – State of AI in Business 2025 », sur la figure et dans la suite de ce billet, car même si son titre est trompeur (il ne s’agit pas de AI en général) et même si certains des « claims » (« 95% of genAI projects fail ») doivent être lus dans leur contexte et non pas généralisés, il contient beaucoup de choses intéressantes. Par exemple, il insiste sur la nécessité, pour passer de l’état de POC à celui de système en production, que les « AI systems » (comprendre : logiciels utilisant des composants de genAI) doivent avoir des capacité de mémoire (contexte de longue durée), d’apprentissage (adaptation permanente à un environnement qui change) et d’intégration (avec les systèmes d’information existant : « The primary factor keeping organizations on the wrong side of the GenAI Divide is the learning gap, tools that don't learn, integrate poorly, or match workflows. Users prefer ChatGPT for simple tasks, but abandon it for mission-critical work due to its lack of memory. What's missing is systems that adapt, remember, and evolve, capabilities that define the difference between the two sides of the divide »).
Même si les progrès sont constants et rapides, le déploiement des agents va prendre du temps et le bouleversement des processus, hormis un petit nombre de cas spécialisés de processus de manipulation de connaissances, sera plus progressif que ce qu’on peut lire chez les fournisseurs de technologies. Le premier facteur de viscosité est le coût de couplage matériel/digital, qui est le cœur de la transformation digitale des entreprises classiques. Plus l’IA se développe, plus les agents permettent de piloter des activités, plus cette transformation digitale va s’étendre mais cela prend du temps. Une fois cette digitalisation achevée, le pilotage par l’IA s’accompagne d’une transformation des processus et des modes opératoires. Comme cela est dit dans l’article cité plus haut, il est possible de tirer parti de l’IA à « iso-processus », mais le plus gros de la transformation nécessite de changer de façon de travailler et cela prend également du temps. C’est également, pour une grande partie des processus, moins disruptif qu’on ne pourrait l’attendre car le plus gros de l’automatisation a été fait et dans des activités qui restent, le temps passer à résoudre des problèmes cognitifs (qui vont passer aux agents) est du même ordre de grandeur, voire moindre, que le temps passer à appréhender notre environnement et à collaborer avec les autres acteurs du processus (en utilisant notre intelligence sociale et notre intelligence de situation). Cette affirmation que « nous réfléchissons moins que nous le croyons » peut surprendre, il faut la confronter à une chrono-analyse de nos journées et séparer le temps « temps cognitif » (résoudre un problème avec des connaissances, créer un contenu, …) du temps « d’interaction » (intelligence émotionnelle) et du « temps physique » (actions sur l’environnement). Le ratio du temps cognitif sur le temps total est le plus souvent en dessous de 20%, et très rarement au-dessus de 40%. Autrement dit, l’utilisation d’agents cognitifs est un changement profond (voire déstabilisant) mais son impact est moins important que ce qu’on pourrait penser au premier abord.
Je vais revenir ici sur 3 idées extraites du papier de NANDA (qui n’est pas un observateur neutre, mais un spin-off du MIT qui défend ses protocoles et architecture pour des agents autonomes). En observant les causes de blocage, on peut lire en creux des conseils pour accélérer la création de valeur avec l’IA générative :
· Il est plus facile de créer de la valeur avec l’automatisation en se concentrant sur les résultats mesurés (outcome) qu’en partant des capacités (pull vs push) : « While most implementations don't drive headcount reduction, organizations that have crossed the GenAI Divide are beginning to see selective workforce impacts in customer support, software engineering, and administrative functions. In addition, the highest performing organizations report measurable savings from reduced BPO spending and external agency use, particularly in back-office operations. … Investment allocation reveals the GenAI Divide in action, 50% of GenAI budgets go to sales and marketing, but back-office automation often yields better ROI. This bias reflects easier metric attribution, not actual value, and keeps organizations focused on the wrong priorities »
· La taille et la complexité sont des facteurs défavorables et il vaut mieux commencer par des périmètres autonomes de petite taille : « Enterprises, defined here as firms with over $100 million in annual revenue, lead in pilot count and allocate more staff to AI-related initiatives. Yet this intensity has not translated into success. These organizations report the lowest rates of pilot-to-scale conversion. By contrast, mid-market companies moved faster and more decisively. Top performers reported average timelines of 90 days from pilot to full implementation. Enterprises, by comparison, took nine months or longer. »
· Pour lutter contre la viscosité évoquée plus haut, il faut s’appuyer sur des réseaux, internes (ne pas trop centraliser) et externes (savoir faire appel aux compétences externes) : « Organizations that successfully cross the GenAI Divide do three things differently: they buy rather than build, empower line managers rather than central labs, and select tools that integrate deeply while adapting over time. The most forward-thinking organizations are already experimenting with agentic systems that can learn, remember, and act autonomously within defined parameters».
Compte-tenu de cette viscosité de la transformation, il y aura forcément une turbulence causée par les vitesses qui seront différentes parmi ceux qui se transforment, et par les nouveaux entrants disruptifs qui conçoivent en partant de zéro sur des nouvelles fondations d’automatisation. Pour reprendre l’aphorisme célèbre, « ce n’est pas l’IA qui va prendre votre job, mais une entreprise qui va plus vite et plus loin avec l’IA qui va prendre vos marchés ». Il s’agit d’une idée générale, il n’est pas clair qu’elle s’applique par exemple aux coiffeurs ou aux restaurants gastronomiques (la différenciation par l’expérience est une protection – cf. mon billet de blog précédent sur le futur du travail), mais c’est néanmoins une des raisons pour prendre rapidement « le train de la transformation par l’IA », même si les progrès sont lents au début. L’article récent, « Canaries in the Coal Mine? Six Facts about the Recent Employment Effects of Artificial Intelligence » montre que les premiers effets de l’automatisation « des tâches simples » est visible sur le marché de l’emploi, pour les jeunes embauchés et certains types d’emplois : « These six facts provide early, large-scale evidence consistent with the hypothesis that the AI revolution is beginning to have a significant and disproportionate impact on entry-level workers in the American labor market ».
L’accélération de l’utilisation de l’IA nourrie par GenAI et l’agentification, est un facteur disruptif dans l’analyse présentée dans la section précédente. On peut deviner à partir des arguments précédents, où à l’analyse que je fais pour le logiciel dans la section suivante, que je ne crois pas au scénario « de l’effondrement de l’emploi », mais un gain de productivité de 30 ou 40% représente un choc systémique fort, une forte dépression du marché de l’emploi qui risque d’alimenter à la fois les causes économiques du désengagement évoqué dans la Section 2, et de créer « un doute existentiel » qui renforcera également un sentiment de perte de sens (cf. Figure 1). L’article précédemment cité de Microsoft Research explique bien pourquoi il est difficile de prévoir entre les deux futurs possibles de l’IA qui augmente et l’IA qui remplace, parce que chaque entreprise fera le choix d’utiliser les gains de l’IA pour faire plus avec les mêmes équipes ou celui de dépenser moins pour le même résultat : « Our data is only about AI usage and we have no data on the downstream impacts of that usage, so we only weigh in on the automation versus augmentation question by separately measuring the tasks that AI performs and assists ». Le développement de l’IA contribue également à l’augmentation des inégalités (de plusieurs types, c’est un sujet qui mériterait un développement propre) qui contribue au désengagement. L’accélération des inégalités est une caractéristique propre à l’ensemble des technologies numériques, parce que la non-matérialisation crée de très forts effets de réseau et de « winner takes all » (dont les plateformes sont des exemples par excellence). Nous savons, par exemple en lisant « Homo Numericus » cité plus haut, que l’économie digitale produit une concentration des richesses. Pour finir cette évocation très rapide, il est également clair que l’automatisation s’effectue le plus souvent au détriment de l’apprentissage, à la fois des acteurs humains et du système global. Une de nos obsessions chez Michelin est de penser que l’apprentissage est plus important que l’efficience, parce que le monde est complexe et évolue constamment. La mise en place de l’IA est soumise à la contrainte « aller vite et aller loin », et pour aller loin, il faut souvent conserver le temps de l’apprentissage et aller moins vite. Je n’ai pas les réponses aux questions que ces couplages posent et que nous avons vu dans la section précédente, mais c’est clairement une priorité pour mes investigations en 2026.
4. Prospective sur le développement logiciel agentique
J’ai déjà abordé le sujet prospectif de l’impact de l’intelligence artificielle sur le développement logiciel dans un billet précédent, « How Software-Driven Companies Leverage AI through Software Excellence ». Même si les choses ont beaucoup changé en un an, je vais commencer par un petit résumé du thème « Augmented Software Engineering ». Après plus d’un an d’expérimentation en 2024, l’usage de l’IA générative dans le développement logiciel révélait déjà des bénéfices contrastés selon les étapes de la chaîne de valeur. Sur la création de nouveau code, les résultats sont très positifs: l’auto-complétion fonctionne bien grâce à l’exploitation du contexte existant et les outils conversationnels accélèrent fortement la production lorsqu’il s’agit de cas standards ou répétitifs, avec des gains pouvant aller de +30% à +300%. En revanche, pour des développements complexes et spécifiques, les apports restent limités et la qualité du code généré n’est pas garantie, ce que je vais détailler dans le paragraphe suivant. Pour la maintenance du code, qui occupe la majeure partie du temps des développeurs, le tableau est plus mitigé : selon Adam Tornhill, un tiers des propositions d’IA améliorent réellement le code, un tiers n’apportent rien et un tiers de ces propositions dégradent un code qui fonctionnait auparavant. L’IA est cependant utile pour naviguer dans une base de code, repérer des “bad smells” ou documenter des fonctions. Dans le domaine des tests, elle est efficace pour générer des tests unitaires simples, mais moins performante lorsqu’il s’agit d’imaginer une logique de test adaptée à un résultat attendu. En amont, elle peut contribuer à la génération de user stories ou d’applications simples en mode “no code”. C’est d’ailleurs un domaine progrès important en 2025 en termes d’expérience personnelle, puisque l’assistance de GPT4o m’a permis de développer beaucoup plus vite les versions 6 et 7 de CCEM précisément en réduisant le temps nécessaire pour produire les spécification du code (le modèle et ses équations). Enfin, en aval, l’IA facilite l’automatisation de la livraison logicielle et l’assistance aux utilisateurs, par exemple via des agents capables d’expliquer le fonctionnement d’une application à partir de son code. Si l’on additionne ces apports, le gain de productivité global se situait fin 2024 entre 5% et 10%, chiffre modeste au regard du battage médiatique mais déjà significatif pour de grandes équipes. Le rapport DORA qui vient de sortir, « 2025 DORA State of AI-assisted Software Development Report », indique des chiffres globaux de productivité du même ordre de grandeur, avec une efficacité individuelle qui augmente de 15% à 20% mais qui est dégradée par plus d’instabilité. Dès 2024, nous avons vu que l’impact dépasse la simple vélocité : amélioration de la qualité et de la sécurité (dans certains cas), cycles de déploiement plus rapides, meilleure couverture de tests, code reviews accélérées et, surtout, une expérience développeur plus fluide et agréable. Les études comme celles de GitHub Copilot ou de l’ACM montrent que cette dimension subjective (plaisir accru, apprentissage accéléré, attractivité renforcée des équipes) est au moins aussi importante que les gains mesurés, confirmant que l’IA générative transforme autant la pratique quotidienne du développement que ses résultats chiffrés.
Je vais maintenant revenir sur trois points clés, à la lumière de témoignages et de publications plus récentes. Le premier est qu’il se confirme que l’IA est mieux adaptée à la génération de nouveau code qu’à la maintenance de code existant. On trouve plusieurs statistiques qui disent qu’en moyenne les développeurs travaillent 40% du temps sur du code existant contre 5% à produire du nouveau code, ou encore qu’ils passent 10 fois plus de temps à lire du code qu’à en écrire. D’un côté, la qualité sur la production de nouveau code augmente en continu (ce que je mesure régulièrement depuis deux ans avec des exercices non triviaux), ce qui explique l’intérêt croissant pour le « vibe coding ». D’un autre côté, dès qu’il faut guider l’IA pour que le code généré s’intègre dans un code existant, c’est plus compliqué. Les boucles d’interactions peuvent devenir quasi-infinies. De plus, si l’IA génère facilement du code « qui marche », il est en fait plus verbeux et plus fragile, ce qui peut poser des problèmes sur le long terme. Parmi les articles plus récents, citons « AI vs. Human Programmers: Complexity and Performance in Code Generation », paru en Mai 2025, qui conclut que « Programs generated by ChatGPT exhibited verbosity, complexity, and resource demands, as evidenced by higher program volume, difficulty, and cyclomatic complexity scores. In qualitative terms, ChatGPT’s code was more readable but lagged in key areas, including documentation quality, function structuring, and adherence to coding standards. Conversely, human-written programs excelled in maintainability, error handling, and addressing edge cases ». La question de la confiance dans le code produit par l’IA est soulignée dans les “key findings” du rapport DORA 2025 cité plus haut. De son côté, l’article “Human-Written vs. AI-Generated Code: A Large-Scale Study of Defects, Vulnerabilities, and Complexity” est plus équilibré (entre les caractéristiques du code généré versus le code manuel) mais conclut que « Human-written code tends to be more structurally complex but prone to maintainability and design issues, whereas AI-generated code is simpler but more repetitive and semantically shallow, with frequent unused constructs and hardcoded debugging. Critically, AI-generated code also exhibits a higher prevalence of high-severity security vulnerabilities, underscoring the need for stricter safeguards in AI-assisted development workflows». A côté des études publiées, j’ai aussi collecté de nombreux témoignages d’autres DSI qui constatent que le code produit, lorsque les contraintes sont importantes comme dans le cas de systèmes embarqués, est moins efficace et plus gourmand en ressources. Dans l’excellent article “Comparing Human and LLM Generated Code: The Jury is Still Out!”, on trouve un point de vue nuancé qui contient néanmoins cette mise en garde : « This study highlights the potential utility of LLMs for supporting software development, however, tasks requiring comprehensive, innovative or unconventional solutions, and careful debugging and error correction seem to be better developed by human programmers”.
Le deuxième point clé qui se confirme progressivement est l’importance de la complexité et de la modularité de l’architecture dans l’applicabilité du « AI-augmented software engineering ». Ce point est très bien expliqué par Fabrice Bernhard dans un post LinkedIn qui présente une vidéo de Michael Truell, le CEO de Cursor. D’une part la qualité du code produit dépend clairement de la taille du contexte (pour que le code soit fortement pertinent avec une forte probabilité, il faut qu’une partie importante du programme soit fournie dans le contexte), mais cette amélioration n’est pas linéaire et elle se heurte (aujourd’hui) à des effets d’échelle. En conséquence, les témoignages très positifs que j’ai recueillis sur des exemples réussis de « vibe coding » sont tous caractérisés soit par leur petites tailles, soit par des architectures très modulaires avec des interfaces très bien définies et stables, soit les deux (des architectures microservices). On trouve cette idée dans les articles précédemment cités, mais également dans l’article clé “Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity”. Cet article a fait du bruit parce qu’il montre que des développeurs confirmés travaillant sur des projets open-source de grande taille (1.1M de lignes de code en moyenne) voient leur productivité réelle ralentie par les outils de genAI alors qu’ils pensent aller plus vite. Cet article mérite d’être lu même s’il correspond à un cas spécifique qui ne doit pas être généralisé trop vite : « That said, many of the factors we find evidence for contributing to slowdown are specific to the setting we study—these results do not imply that current AI systems are not useful in many realistic, economically relevant settings ». Nous sommes précisément dans un cas de travail sur une base de code existante, par opposition à un nouveau projet : « The slowdown we observe does not imply that current AI tools do not often improve developer’s productivity—we find evidence that the high developer familiarity with repositories and the size and maturity of the repositories both contribute to the observed slowdown, and these factors do not apply in many software development settings. For example, our results are consistent with small greenfield projects or development in unfamiliar codebases seeing substantial speedup from AI assistance ».
Le troisième point important est que le langage naturel, fut-il augmenté par quelques dessins, n’est pas toujours la meilleure façon de spécifier un logiciel. La figure suivante exprime l’idée simple que l’utilisation du langage naturel comme outil de spécification (avec une génération de code) est quasiment aussi ancienne que l’informatique. Depuis que nous construisons des langages de programmation, nous avons cherché à gagner en abstraction. Cette figure propose une vision très simplifiée avec quatre niveaux : le langage naturel, la spécification formelle mais déclarative (qui décrit ce qu’on veut atteindre mais pas comment l’atteindre), la spécification opérationnelle et le code. Le point clé est celui exprimé plus haut : ce qui est difficile, dans la très grande majorité des cas, n'est pas de produire un logiciel mais de le maintenir face aux changements constants de son environnement. Ce n’est pas toujours le cas si on pense à des applications « jetables » (de très courte durée de vie) mais ce ne sont pas celles qui posent des problèmes aux DSI, et celles-ci sont d’ailleurs d’excellentes candidates au « vibe coding ». La figure exprime l’idée que selon la nature des contraintes d’homéostasie (qui exige le changement), certains modes de spécifications sont plus adaptés que d’autres. Cette idée doit être croisée avec ce que nous avons dit plus haut (la partie basse de la figure) : la taille et la complexité militent pour une formalisation des spécifications, afin de pouvoir valider, voire prouver, les propriétés que l’on recherche. Pour beaucoup de problèmes complexes, « programmer en langage naturel » n’est pas plus simple ni plus efficace que l’utilisation d’un langage formel et structuré. Il y a même des cas où l’intégration avec des codes « legacy » amène des contraintes qui sont plus facilement résolue en écrivant directement dans un langage de bas niveau d’abstraction, plutôt que d’optimiser à l’infini « la chaîne de compilation » pour que le code produit soit « compatible ».
Ce que cette figure indique, c’est qu’il n’y a pas de vérité unique et que le choix de l’outil dépend du cycle de vie et de la nature des contraintes de l’environnement dans lequel le logiciel produit sera utilisé. Dans son exposé passionnant “We Lost” sur la révolution de l’IA, Eric Schmidt explique qu’une partie importante de code développé pour produire des interfaces utilisateur en utilisant des concepts graphiques qui datent de 50 ans sera remplacé avantageusement par un dialogue en langage naturel avec la machine et c’est sûrement vrai en partie (cf. la discussion sur la transformation des SaaS) mais en partie seulement. Pour de nombreuses interactions, un support plus structuré et visuel offre à la fois plus de sécurité et plus de précision. Cette figure permet de comprendre que le « taux de lignes de code produite par l’IA », qui est en train de devenir un KPI de l’agentification du développement logiciel, va évoluer différemment selon le type de logiciel que l’on produit. Pour prendre un peu de risque, je dirais que pour la majorité des entreprises que je connais, la borne supérieure en 2030 est de 50% (et elles seront plutôt entre 20% et 50%). L’idée que l’agentification vers le « software 3.0 » va prendre du temps n’est pas originale, elle est clairement exprimée par Kent Beck, Yann Le Cun ou Andrei Karpathy. Ce qui est intéressant dans l’analyse « cycle de vie / origine du changement / adhérence », c’est de comprendre que les échelles de temps varient selon le type de logiciel (50% est une moyenne entre les valeurs attendues pour les 4 types de la figure précédente).
5. Conclusion : Lean vs Agentic AI
Je vais conclure ce billet en revenant sur cette idée que l’approche lean, la transformation entre les mains des femmes et des hommes et qui se conduit sur le terrain, est la bonne approche pour tirer parti des capacités sans cesse croissante de l’intelligence artificielle. Je manque ici de temps, mais je vous renvoie à mes billets précédents pour insister sur le fait que de mon point de vue, la grande différence entre ACI (l’intelligence cognitive) qui arrive et AGI (l’intelligence générale qui se substitue pleinement à un humain) est précisément l’intelligence situationnelle et émotionnelle, celle qui permet de comprendre une situation et d’en déduire les bonnes questions qui sont ensuite traitée par « notre ACI » (et donc bientôt avec une forte assistance de la machine). C’est sur le terrain, sur le « gemba » au sens lean, que se trouve le besoin d’intelligence humaine. Comme exprimé avec ironie en introduction, s’il s’agit de produire un « discours de la méthode », GPT5 le fait déjà très bien et les versions à venir le feront de mieux en mieux.
Ce que je qualifierais de « jumeau numérique du travail » en introduction, et qu’on pourrait plutôt désigner par « metaland » (land of the meta :abstraction, pas metaverse). Le metaland, c’est l’abstraction du travail, que nous connaissons tous, sous la forme d’indicateurs et de tableaux de bord, de processus et d'outil de pilotage, d’architecture d’entreprise, d’objectifs de performance. Ces abstractions sont utiles et nécessaires pour conduire le progrès, du moment, c’est ce que nous enseigne le lean, qu’elles ne soient jamais dissociées du réel et du terrain – et cela fait bien sûr le lien avec la fin du livre d’Emmanuelle Duez. Le metaland, c’est la carte, et elle ne doit pas nous éloigner du territoire. ChatGPT est un expert du metaland, mais c’est à vous de connaître le territoire et d’appliquer votre intelligence humaine.
Je vais terminer ici avec une pointe d’humour en vous donnant trois critères pour savoir si vous restez dans le metaland pendant une réunion :
- Le CCI (Customer Centricity Index) : pourcentage des phrases où on parle du client à la première personne (cf. mon dernier livre : ce score est encore souvent proche de zéro)
- La présence de chiffres collectés du terrain et qui représente la réalité du métier (ce que j’ai appris de Mike Lesk pendant mon premier job en 1988 à Bellcore: « a slide without experimental numbers or a proof is just an opinion »).
- Le fait que les slides pourraient s’utiliser telle quelles pendant une présentation chez un concurrent.
Si ces indicateurs sont tous mauvais, il est temps de s’emparer du « lean thinking » (commencez par les livres de Michael Ballé) pour retourner sur le « territoire ». Et c’est particulièrement important lorsqu’on se met à collaborer avec l’IA, en particulier l’IA générative, parce que l’automatisation va de pair avec l’abstraction. Il faut une démarche structurée et volontaire pour développer les applications de l’IA en partant du réel et pas de l’idée que nous nous faisons du monde (et je parle d’expérience, m’étant moultes fois trompé en ce domaine). Ce n’est pas un hasard si on retrouve le VSM (Value Stream Mapping) dans les bonnes pratiques mentionnées dans le rapport 2025 DORA : « the practice of visualizing, analyzing, and improving the flow of work from the idea to the customer, acts as a force multiplier for AI, ensuring that local productivity gains translate into measurable improvements in team and product performance ».
Aucun commentaire:
Enregistrer un commentaire