1. Introduction
Même si l’irruption de l’IA générative nous a habitué à un rythme effréné de nouvelles, il se passe quelque chose de spectaculaire depuis quelques mois en ce qui concerne la capacité des modèles à analyser et à produire du code. Les réseaux sociaux bruissent de commentaires autour de Claude Code, Opus 4.6 et GPT 5.3. La qualité du code produit par ces modèles a fait un bond en avant en quelques mois et les capacités d’analyse sont devenues très impressionnantes (sans parler de la facilité d’utilisation apportée par Claude Code et les outils similaires). Vous pouvez par exemple lire « Something big is happening » de Matt Shumer. Je ne suis pas forcément d’accord sur sa « timeline » (qui diminue le passé et accentue le futur), mais je très en phase avec l’idée que la fin 2025 a marqué une rupture. Pour illustrer cela avec une petite anecdote personnelle, le 3 janvier 2026, j’ai demandé à GPT 5.2 de prendre les équations dans mon article du journal GLCE et de me dire si le code CCEM était fidèle à ce modèle. Le résultat est exceptionnel : GPT m’a trouvé toutes les petites différences d’implémentation et a été capable de me dire dans quelles situations ces différences auraient un impact sur les résultats de simulation (J’ai demandé la même chose à Opus 4.5 et Gemini3, mais sur cette tâche, GPT 5.2 était le plus bluffant), alors que les équations et le code sont écrits avec des niveaux d’abstraction complètement différents et que la réponse fournie nécessite d’avoir parfaitement compris les deux.
Je suis très motivé, en tant que DSI, pour comprendre quel va être l’impact sur le développement des systèmes logiciels, à la fois d’un point de vue technique, organisationnel et culturel. Je poste régulièrement sur LinkedIn le résultat de mes réflexions du moment (qui évoluent rapidement). Par exemple, au retour du TechRock Summit, j’ai écrit sur le devenir du software engineer dans un monde assisté par des agents, puis j’ai repris cette réflexion sur l’augmentation du niveau d’abstraction (du code engineering au context engineering) avec la montée du specification-driven-and-assisted-development. Aujourd’hui je vais prendre du recul par rapport à mon métier et m’intéresser aux changements plus profonds sur l’ensemble des activités, du point de vue de l’impact de l’IA sur le travail, l’éducation et la société. Je vais m’appuyer sur la lecture que j’ai faite fin 2025 de quatre ouvrages : « Ne faites plus d’études » de Laurent Alexandre et Olivier Babeau, « IA : Grand remplacement ou complémentarité ? » de Luc Ferry, « Ultra-Intelligence : Jusqu’où iront les IA ? » d’Aymeric Roucher et « Le désert de nous-mêmes » d’Eric Sadin. Ce billet fait donc écho à la fois au billet précédent, « Futur du travail, Agents Intelligents et Genchi Genbutsu », et à un travail plus ancien sur l’évolution du travail publié en 2016 sur frenchweb. Je vais m’appuyer sur ces quatre lectures pour partager quelques idées qui me semblent importantes et les utiliser pour revisiter mes positions sur le futur du travail.
Ce billet de blog est organisé comme suit. La section 2 porte sur quelques premières conséquences de l’arrivée ubiquitaire de l’intelligence artificielle cognitive. En s’appuyant sur le livre de Laurent Alexandre et Olivier Babeau, je vais observer les conséquences de cette banalisation de l’intelligence cognitive à la fois sur notre façon de travailler et d’apprendre. Je vais aussi aborder brièvement en quoi l’arrivée de cette IA cognitive (qui est devant nous) n’est la même chose que l’IA générale (au sens de substitution générale). La section 3 poursuit en évoquant l’impact de cette transformation sur le monde du travail, à la fois d’un point de vue culturel, organisationnel et économique. J’utiliserai ici le livre de Luc Ferry, qui a l’avantage de prendre du recul sur la question très ouverte et spéculative de la temporalité. Cela me permettra de proposer une évolution du modèle du « futur du travail » de 2016 sous une forme paramétrique, articulé autour de trois questions clés (des « key known unknowns » pour reprendre la terminologie CCEM). La dernière section s’intéresse alors aux implications à long terme de ces changements sur la société, nos valeurs et la perception que nous avons de nous-mêmes en tant qu’êtres humains. Je vais utiliser les livres d’Aymeric Roucher et d’Eric Sadin pour poser quelques questions difficiles, et fournir quelques clés de réflexions, plus que des éléments de réponse.
2. L’intelligence cognitive devient-elle une commodité ?
La question de l’impact du futur de l’IA sur le travail et la société est complexe, pour des raisons multiples, à commencer par l’incertitude sur la vitesse de déploiement et l’étendue des nouvelles capacités. Je vais utiliser la même distinction que dans des billets précédents entre ACI, AGI et ASI :
L’Artificial Cognitive Intelligence (ACI) permet de faire le travail cognitif à notre place : elle menace plus ou moins nos emplois, mais ne remet pas en cause l’organisation de la société, car les humains sont plus que des automates cognitifs.
L’Artificial General Intelligence, est, comme son nom l’indique, une forme générale d’intelligence qui permet à un robot de remplacer n’importe quel humain. Son arrivée est plus controversée, mais les enjeux (cf. section suivante) sont plus importants puisque cette capacité de remplacement générale est de nature à remettre en cause les fondements de notre société.
L’Artificial Super Intelligence désigne un niveau de développement qui, d’une part, recouvre les précédents (penser, analyser et sentir à un niveau de performance supérieur à un humain) et est, d’autre part, multiplié par un effet d’échelle qui fait que l’ASI représente « une intelligence supérieure à l’ensemble de l’humanité ». Son avènement est encore plus spéculatif et je ferai l’impasse sur ce point dans ce texte.
Je vais revenir sur cette distinction à la fin de cette section (cf. Figure 1) et donner plus de détail qui servira pour la suite de la discussion. Le sujet de cette première section se concentre sur l’intelligence cognitive. Le développement rapide de l’ACI est sous nos yeux, c’est donc la partie la moins spéculative de ce billet.
2.1 Que faut-il apprendre lorsque l’IA sait déjà ?
Je commence par un court résumé du livre de Laurent Alexandre et Olivier Babeau, « Ne faites plus d’études – Apprendre autrement à l’ère de l’AI » parce qu’il parle précisément de capacité cognitive, et peu de robotisation. Notons tout de suite que malgré le titre provocateur, il ne s’agit pas de ne plus étudier, mais de repenser complètement la démarche éducative dans un monde où la connaissance est accessible, et de façon instantanée, avec ChatGPT et autres systèmes d’IA générative (SIAG) fondés sur, mais non réduits à, des LLMs. Comme pour les autres livres, je ne vous propose pas un résumé objectif, mais une sélection d’idées clés. Je vous recommande donc de lire le livre de Laurent Alexandre et Olivier Babeau pour puiser les choses qui vous intéresseront personnellement. Par exemple les huit principes fondateurs d’une nouvelle éduction cognitive (dont : droit à l’apprentissage personnalisé, portabilité de notre exo-cortex, droit à la pluralité des sources, droit à la confidentialité de l’apprentissage et droit à l’oubli) me semblent très intéressants. Dans le cadre de la réflexion globale posée dans l’introduction, voici les quatre points essentiels que je retiens de ma lecture :
(1) Le changement qui se dessine dans les années à venir est radical parce que l’intelligence cognitive va devenir une « commodité ». Je ne pense pas, contrairement à Dario Amodei, que nous ayons déjà des assistants « supérieurs à des PhD », mais cela va très certainement arriver rapidement. Les auteurs utilisent beaucoup le terme « cognitif », y compris de façon provocante (« immigration cognitive » pour jouer avec nos peurs) : « Ce que nous vivons avec l’Intelligence Artificielle n’est pas une innovation de plus. C’est l’effondrement d’un ordre ancien où l’intelligence humaine constituait le sommet de la pyramide. Un monde où penser, analyser, résoudre, écrivait le destin des individus et des nations ». La thèse est simple : nous avons fait des compétences cognitives un système de valeur, pour évaluer et organiser les individus, donc cette « commoditisation » est, à terme, un changement de civilisation : « Il est urgent que l’Europe comprenne l’enjeu. Nous vivons une triple révolution : économique, civilisationnelle, et même anthropologique ». Il s’agit d’un changement profond et progressif (contrairement aux déclarations fracassantes qui pleuvent en continu) : « L’erreur, c’était de croire que l’IA provoquerait un big bang. Qu’elle apparaîtrait comme un soleil aveuglant en pleine nuit. Non. Elle installe une lente glaciation cognitive. Elle rend obsolète en douceur ».
(2) Les outils cognitifs, par leur utilisation répétée, changent la structure de notre cerveau et nos compétences. Ceci n’est pas nouveau, on l’a déjà dit au moment de l’arrivée du Web puis du mobile, mais c’est également le cas avec l’IA générative. On retrouve des idées et des auteurs connus des lecteurs de ce blog : « Dans son livre Qu’est-ce qu’Internet fait à nos cerveaux ? Nicholas Carr a montré que l’invention des liens hypertextes, censés permettre un enrichissement de l’expérience de lecture, en avait au contraire été le fossoyeur ». Je vous renvoie par exemple aux travaux de Stanislas Dehaene sur les neurones de la lecture. Il est déjà clair – lire par exemple « How AI impacts Skill Formation » - que l’utilisation d’assistants cognitifs va modifier nos capacités, et pose, comme tous les autres outils numériques, du smartphone à la recherche Google, des questions de coûts/bénéfices.
(3) L’intelligence artificielle cognitive est un amplificateur de talents et son déploiement massif risque d’augmenter les inégalités, car il faut de la discipline pour en tirer parti des avantages en évitant les risques. Les auteurs sont bien conscients des risques mentionnés plus haut : « C’est un résultat essentiel. L’IA est un amplificateur. Si vous êtes déjà fort, elle vous rend plus fort. Si vous êtes faible, elle vous rend dépendant. Et pire encore, elle vous affaiblit davantage ». On retrouve cette idée fondamentale de l’amplification dans le rapport DORA sur l’utilisation de l’assistance IA pour générer du code : « The State of AI-assisted Software Development report reveals AI’s primary role is as an amplifier, magnifying an organization’s existing strengths and weaknesses ». Pour tirer parti de l’assistance de l’IA cognitive sans devenir dépendant et perdre ses propres capacités, il faut savoir s’observer, se connaître et se réguler : « Car ce n’est pas seulement une affaire de talent. C’est une question de discipline personnelle. De capacité à résister à l’économie de l’attention, qui s’est donné pour mission de vous rendre dépendant, passif, distrait, donc faible ». On trouve alors d’excellents conseils, dans le style direct des auteurs : « La vraie menace n’est pas seulement l’Intelligence Artificielle. C’est notre propre paresse. Ou plutôt l’économie de la paresse, que nous portons dans notre poche, sous forme d’appli et de notifications. L’IA ne nous rend pas idiots. Elle révèle à quel point nous sommes prêts à le devenir. Parce qu’elle nous soulage. Parce qu’elle pense à notre place ». Cette citation me rappelle les propos que mon père, Paul Caseau, m’a tenu de façon répétée au moment de mon adolescence : « on ne naît pas idiot, on le devient » (par paresse et facilité), autrement dit l’intelligence n’est pas une capacité mais une attitude.
(4) L’enseignement doit évoluer et s’adapter aux avantages et risques apportés par l’IA cognitive. Cette révolution de l’ubiquité des assistants cognitifs a forcément un impact majeur sur l’enseignement, surtout lorsqu’on la souligne avec la mise en garde du point précédent. Contrairement au titre provocateur, ce livre est bien un plaidoyer pour l’éduction, mais sous une forme nouvelle : « Loin de rendre inutile l’enseignement, l’IA lui donne l’occasion de se réinventer. Le professeur ne disparaît pas : il devient chef d’orchestre, accompagnateur et concepteur de parcours. Il libère son temps des tâches répétitives (corriger cent fois les mêmes fautes, réexpliquer les mêmes notions de base) pour se concentrer sur ce que la machine ne peut faire : motiver, guider, inspirer ». L’éducation est plus que jamais une nécessité, mais elle doit être continue, tenir compte des nouveaux outils et des nouveaux risques associés à ces outils : « Ce que nous voyons émerger, ce n’est pas une société postéducative. C’est une société hyper-éducative : un monde où chacun sera sommé de devenir l’architecte actif de sa propre cognition. Où l’enseignant ne dicte plus, mais accompagne. Où l’élève n’obéit plus, mais interagit et construit son parcours ». Un des impacts les plus spectaculaires des progrès de 2025 est que le meilleur compagnon pour utiliser des nouveaux outils est précisément l’IA elle-même. Il faut avoir fait l’expérience de demander à un outil X de nous aider à comprendre comment bien utiliser l’outil Y (dans mon cas, assistance de GPT 5.2 pour utiliser GitHub Copilot Agent). Comme l’écrivent les auteurs : « L’IA devient un partenaire d’étude, accessible, patient et capable de suivre l’élève individuellement. Le mode « étudier et apprendre » de ChatGPT préfigure une fonctionnalité qui sera bientôt disponible sur toutes les IA, tant elle répond à un besoin essentiel ». Leur livre contient beaucoup d’excellents conseils, apprenez l’Histoire, faites de la lecture de façon régulière : « Faites de l’heure de lecture l’équivalent de vos 10 000 pas par jour. Votre règle de vie. La lecture est comme le brossage de dents : une fois ne sert à rien. Les bénéfices n’apparaissent que dans la répétition ». Le monde qui vient avec l’IA exige une formation de nos esprits : « Face à l’IA, il faut mettre plus que jamais l’accent sur un socle solide de compétences : l’intuition, la curiosité, l’analyse critique et la capacité à relier des idées de façon nouvelle. L’IA peut proposer une pédagogie individualisée, tout en préservant la force de l’effort intellectuel et de la réflexion humaine ».
Les quatre points que je viens de citer en les atrophiant me semblent fondamentaux. J’ai par ailleurs quelques points de désaccord que je vais évoquer ici brièvement pour souligner que le premier intérêt de ce livre est de faire réfléchir. Le premier point est l’arrivée prochaine (et donc la possibilité, puis l’inévitabilité) des implants neuronaux de type Neuralink. Je pense que nous en sommes encore très loin, au-delà des utilisations thérapeutiques très prometteuses. On retrouve également un thème cher à Laurent Alexandre, l’allongement imminent de la durée de vie de façon spectaculaire (qu’il s’agisse de Dario Amodei qui prévoirait de doubler l’espérance de vie humaine d’ici 2037 ou une autre « annonce avec Demis Hassabis qui prévoiraient une longévité radicale, potentiellement au-delà des 150 ans »). J’ai écrit quelques articles sur le transhumanisme (on trouve même sur le Web certaines de mes conférences), et je vais faire l’impasse d’une réponse détaillée dans ce billet qui est déjà fort long. Disons que la complexité du vivant me rend plus que septique sur ces prévisions. Les auteurs évoquent l’article célèbre de James March sur « le modèle des poubelles », pour diminuer le rôle des réunions dans les entreprises : « Le cadre moyen d’aujourd’hui passe son temps sur des tableaux Excel, des présentations PowerPoint, des comptes rendus et des chaînes d’e-mails : exactement le genre d’activités que des agents intelligents savent automatiser en un clin d’œil. Il restera bien les réunions, mais en réalité elles étaient assez peu productives… ». Le sujet du rôle des réunions dépasse le thème de ce billet, mais je vous renvoie à un billet ancien, où je souligne que le terme de « garbage can » dans l’article de March n’est pas péjoratif … je pense au contraire que les réunions sont ce qui va subsister dans le monde du travail post-IA. Pour finir, il est dit plusieurs fois que « On n’est plus dans l’économie du code, mais dans celle de la collaboration avec l’intelligence. Et cela change tout : ce ne sont plus les meilleurs programmeurs qui dominent, mais ceux qui savent structurer une interaction complexe avec une IA capable d’inférer, de généraliser et de réagir ». Je pense, tout comme Grady Booch, que nous allons vivre une montée en abstraction dans les 10 ans, mais que programmer avec des prompts, des contextes, des spécifications et des architectures c’est toujours programmer. Mais je veux bien entendre que cette opinion est peut-être un plaidoyer pro domo.
2.2 Intelligence Artificielle Cognitive ou Générale ?
J’ai un point de désaccord plus profond sur la temporalité, sur lequel je reviendrai dans la section 4 : je suis prêt à envisager une forme très aboutie d’ACI en 2030, mais suis beaucoup plus sceptique sur l’arrivée de l’AGI, alors que les auteurs écrivent : « En 2030, l’intelligence ne sera plus une qualité biologique. Ce ne sera plus une compétence acquise, ni un capital humain. Ce sera une infrastructure. Un actif. Et elle ne sera plus humaine ». Je vous recommande l’écoute du podcast de Lex Friedman, « State of AI in 2026 », pour avoir un avis détaillé et crédible sur l’état de l’art et les obstacles qui restent à lever. Je vous recommande également d’écouter Demis Hassabis, par exemple dans cette interview de Hannah Fry. Au même moment où les meilleurs modèles résolvent des exercices très difficiles d’Olympiades de mathématiques, ces mêmes modèles font encore des erreurs « simples » sur des exercices de terminale. Dans cette autre interview de Demis Hassabis (un des experts en qui j’ai le plus confiance), je constate qu’il est doublement prudent : la forme d’AGI qu’il décrit est plus cognitive que comportementale, et il voit encore 5 à 10 ans, avec le besoin d’ajouter « two or three breakthroughs » pour arriver à cette intelligence complète. Il est d’ailleurs très intéressant de noter la mention explicite de besoin de « World Models ». Ce n’est pas forcément un modèle JEPA à la Yann Le Cun, mais je trouve qu’il y a une convergence autour des idées générales sur le besoin de World Models pour une forme d’intelligence capable de faire des hypothèses. Si vous écoutez Demis Hassabis, vous verrez qu’il déclare que « we should spend more time thinking about the ACI/AGI impact on society & economy evolution”. Je ne peux qu’être 100% d’accord et c’est d’ailleurs le thème de ce billet. Laurent Alexandre et Olivier Babeau citent, bien sûr, souvent Dario Amodei, mais on aura compris que même si j’ai une grande admiration pour le CEO d’Anthropic et que ses écrits et ses interviews sont une de mes sources d’inspiration, je pense que, es fonction, il amplifie les résultats spectaculaires que nous voyons aujourd’hui (cf. le débat évoqué plus haut sur le fait que nous aurions atteint le niveau « PhD » pour les assistants cognitifs d’aujourd’hui).
Je vais terminer cette section avec une figure qui donne un peu plus de substance à la distinction ACI / AGI / ASI proposée plus haut. La première flèche horizontale représente la progression rapide ACI avec quelques-unes des briques introduites progressivement ainsi que celles qui sont peut-être à inventer pour atteindre un niveau cognitif « égal à supérieur à tout expert humain ». La flèche verticale explore les progrès nécessaires pour disposer d’une intelligence situationnelle (et émotionnelle quand il s’agit de comprendre un environnement peuplé avec d’autres humains). Cette catégorisation des formes d’intelligence est fondamentalement fondée sur les capacités et les résultats. Je vais y revenir dans la section suivante, lorsque je vais parler du livre de Luc Ferry. Je me place du « côté pragmatique américain » décrit par Bertrand Meyer dans son article « Two Concepts of Intelligence » sur le blog de l’ACM. Sur les pas de Yann Le Cun, je pars du postulat qu’il faut déjà disposer d’une perception du monde et d’un « world model ». Ensuite j’identifie quatre capacités (le lecteur attentif reconnaîtra l’influence de Max Benett), auxquelles je donne des noms anthropomorphiques (par provocation), mais qui sont des capacités systémiques observables :
· « Artificial Thinking » désigne la capacité d’une IA à gérer ses propres buts, et à construire ses propres stratégies d’exploration (y compris « contrefactuelles » en s’appuyant sur le modèle du monde – cf. « A Brief History of Intelligence »). L’utilisation du mot « thinking » s’oppose à « reckoning / deducing / reasoning » qui fait déjà partie du domaine ACI.
· « Artificial Emotions » désigne la capacité de faire appel à des méta-heuristiques stockées et héritées d’une population de semblables (on va reconnaitre ici, super simplifiée, la théorie Darwinienne des émotions proposée par Michio Kaku dans une perspective d’un double apprentissage de l’individu et de l’espèce), affinées de façon progressive par l’évolution. Sans chercher un anthropomorphisme déplacé, le terme d’émotion fait référence au besoin de compléter le raisonnement par des méta-heuristiques pour décider (cf. Alain Damasio). Je ne résiste pas au plaisir de donner un exemple : l’émotion de la surprise est méta-heuristique qui pousse à mettre constamment à jour son world model, ce que je vois constamment avec mon petit-fils de 7 mois, une idée superbement expliquée par Michio Kaku.
· « Artificial Conscience » désigne un ensemble de capacités qui émergent à partir de la réflexivité du modèle du monde (se voir dans son modèle), du système de valeurs (AT) et émotions (AE) qui se coconstruisent à partir des interactions avec le monde (réel). J’y reviens dans la section suivante, ce qui est important c’est de comprendre que le mot « artificiel » signifie « détaché de tout substrat de biologie et exprimé comme propriété réflexive d’un système complexe ».
· « Artificial Freewill » désigne la capacité du système d’avoir accès à une source de variabilité indépendante de son environnement. Je suis conscient que cette vision d’informaticien (un nom pédant pour un générateur pseudo-aléatoire) est courte pour un philosophe, mais d’un point de vue systémique c’est cette propriété qui permet, en étant couplée à la mémoire, d’engendrer des classes supérieures de comportements adaptatifs face à des problèmes et situations complexes.
Ce qui est fondamental dans ces capacités est qu’elles s’évaluent de façon continue, et non pas binaire. Il ne s’agit pas de savoir sur une IA est (artificiellement) consciente ou pas, mais quel est son degré de conscience. Je ne ferai pas de commentaire aujourd’hui sur la dimension ASI, il y a déjà assez à faire dans ce billet pour comprendre ce qu’AGI peut produire.
Figure 1 : ACI, AGI et ASI
J’ai pris connaissance récemment du TED Talk de Vinciane Beauchène sur « ACI vs AGI ». Même s’il s’agit d’une définition différente de ACI = Artificial Capable Intelligence, son propos n’est pas très différent de ce que je viens d’écrire (au sens où « ACI arrive, AGI est encore spéculatif »). L’intérêt principal de la figure 1 est de permettre d’expliciter où nous sommes et ce qu’il nous reste à faire pour atteindre un niveau « AGI » véritablement transformationnel. Je ne vais pas donner mes prévisions aujourd’hui, d’abord parce que je n’ai pas beaucoup de légitimité pour le faire, mais surtout parce que mon objectif avec ces quatre revues de livre est de poser des bonnes questions, pas de proposer des réponses faciles.
3. Comment le marché du travail peut-il s’adapter ?
3.1 Une IA qui va nous remplacer dans la plupart de nos activités ?
(2) Dans cette perspective ou l’IA et les robots associés savent tout faire, il faut envisager une nouvelle société basée sur une économie du travail radicalement différente. En se plaçant sur un horizon de temps plus long, la question de la place des robots humanoïdes devient évidente, au vu des progrès spectaculaires des dernières années. Dans un monde ou une IA puissante se trouve dans chaque robot, la question du « grand remplacement » (cf. le sous-titre) des travailleurs humains par des travailleurs artificiels se pose : « Alors, il n’est pas impossible qu’un monde nouveau apparaisse, celui de la fin du travail salarié pour un grand nombre de personnes sinon pour toutes, un monde des loisirs infinis où la question de l’occupation du temps, voire du sens de la vie, se posera en des termes inédits ». Le livre comporte une section assez longue qui examine la capacité de l’IA de demain à se substituer aux humains. L’auteur conclut, comme le rapport de McKinsey de 2012 sur lequel j’avais basé mon analyse de 2016, que ce sont les métiers d’interaction qui vont résister à la mécanisation : « Dans le monde qui vient, comme je l’ai suggéré de manière symbolique, l’infirmière survivra au généraliste et le généraliste au spécialiste. Le jardinier, le directeur d’hôtel ou de restaurant, le cuisinier, le psychologue, le serveur, le pâtissier, l’aide-soignant, la sage-femme et même, contrairement à ce que j’entends parfois dire à tort, le professeur de talent, celui qui charme ses élèves et les fait entrer dans un univers de connaissance qui ne les intéressait nullement a priori, survivront longtemps encore aux progrès de l’IA et même à ceux de la robotique intelligente. »
(3) Dans ce nouveau monde contraint, la doctrine de la destruction créative risque de trouver ses limites – et le UBI (RUB en français) n’est pas la solution. On trouve chez Luc Ferry une idée clé que l’on va retrouver dans les deux livres suivants, celle que les limites planétaires (énergie fossile, matières première, eau), que nous touchons de façon visible au 21e siècle, vont invalider la théorie de la destruction créative de Schumpeter. Autrement dit, les emplois déplacés par l’automatisation et qui produisent une force de travail supplémentaire ne rencontrent pas forcément un nouveau terrain d’opportunités à explorer : « Oui, c’est certain, accordons-le aux optimistes, il y aura bien création de nouveaux métiers – data scientists, programmateurs, spécialistes des algorithmes, des cyberattaques, etc., etc. –, mais rien n’indique que les créations compenseront les destructions ». Cette conviction conduit à se poser sérieusement la question de Pierre-Noel Giraud, comment organiser la société dans un cadre ou une partie de la force de travail est devenue « inutile » ? Luc Ferry aborde la piste du revenu universel basique, mais il n’y est pas favorable : « La deuxième solution, comme nous l’avons vu, est celle du RUB. Elle est défendue non seulement par les représentants d’une extrême gauche néomarxiste hostile au travail salarié sous toutes ses formes, mais aussi par la plupart des patrons des oligopoles californiens, convaincus qu’ils sont qu’il va falloir bientôt mettre 80 % des humains au RUB ». Très justement de mon point de vue, et dans la lignée des arguments de Giraud, il milite pour l’utilité universelle, c’est-à-dire la possibilité pour la société de s’organiser pour que chaque individu soit utile (ce qui ne signifie pas forcément salarié) : « Il faudra alors réfléchir aux moyens d’organiser la complémentarité IA-travail-créativité humaine partout où c’est possible. Peut-être faudrait-il aussi, une fois organisée cette complémentarité, réinventer un service civique pour les adultes qui permettrait de retrouver une utilité sociale et une insertion dans la vie commune ».
(4) Luc Ferry ne croit pas à la possibilité d’une IA « forte » dotée d’une conscience et d’émotions. Pour comprendre ce point de vue, il faut souligner la position de l’auteur qui veut que la conscience et les émotions soient forcément associé au vivant : « Beaucoup de chercheurs en IA confondent ce qu’on appelle en anglais l’AGI (l’intelligence artificielle généraliste) et l’IA forte, c’est-à-dire une machine qui serait vraiment dotée de conscience et d’émotions comme les humains. C’est à mon sens une grave erreur. Il est désormais plus que probable qu’on ait dans la décennie qui vient des IA généralistes supérieures à nous dans quasiment tous les domaines de l’intelligence. Reste que ce seront encore des IA faibles, c’est-à-dire des machines dépourvues de conscience et d’émotions ». Il s’agit ici, sans jeux de mots, d’une définition forte des termes « émotion » et « conscience », puisque Luc Ferry admet ailleurs la notion d’émotions artificielles, qu’il voit même comme une technique permettant de produire une forme de créativité : « Ce qui se passera dans le futur, prophétise Miller, c’est l’incarnation des machines. Ce sont les cerveaux des robots qui apprendront en explorant des concepts de sens commun dans le monde réel. Les machines seront par exemple capables de nouer leurs lacets, mais aussi de développer un sens des émotions… Vous aurez alors des robots qui iront dehors et qui se diront : tiens ! c’est un beau coucher de soleil, je vais le peindre ! Ils seront même capables de juger de la valeur de leur art. Ils auront leur propre créativité, leur propre façon de penser… ». Luc Ferry analyse en détail la question de la créativité : « La question de savoir si l’IA peut être “créative” dépend de la façon dont on définit la créativité. Si la créativité nécessite la conscience, l’intention et l’émotion, alors l’IA actuelle ne serait pas considérée comme créative. Mais si la créativité est définie simplement comme la capacité de générer des idées ou des œuvres nouvelles et originales, alors on pourrait arguer que l’IA possède une forme de créativité ». Je ne suis pas d’accord sur cette hypothèse forte de la séparation entre le vivant biologique et les cyber systèmes complexes. Je suis plutôt inspiré par la pensée de Francisco Varela qui ouvre la voie à un vivant artificiel qui émergerait des interactions avec l’environnement, par autopoïèse, y compris avec l’émergence d’une conscience qui serait, en effet, plus qu’un calcul ou un traitement de l’information. Comme je l’ai dit dans la section précédente, le débat est très différent si conscience et émotions (artificielles) ne sont plus des propriétés atomiques, mais une échelle d’évaluation de comportement. J’ai beaucoup apprécié la lecture de ce livre, qui m’a permis de me poser des questions passionnantes, et d’arriver à la conclusion que la conscience artificielle est plus qu’un processus cognitif réflexif, elle suppose une forme d’incarnation, de sensori-motricité et d’autonomie organisationnelle.
(5) A court terme, un des problèmes sociétaux majeurs apportés par IA est la facilité d’influencer et de manipuler les opinions. C’est malheureusement une des externalités négatives les plus saillantes de l’IA, et le livre de Luc Ferry en propose une analyse soignée, sur les pas de Yoshua Bengio qui a déclaré : « À relativement court terme, ce qui m’inquiète le plus, a-t-il déclaré, c’est la capacité de ces systèmes à influencer les opinions […]. Des études, notamment celles de l’École polytechnique de Lausanne, commencent à comparer la capacité de persuasion des IA avec celles des humains et les deux sont déjà à des niveaux proches. On peut imaginer que ces systèmes deviennent bien meilleurs avec la pratique ». Les conséquences pratiques et les risques associés sont très importants et ils sont déjà devant nous : « L’IA peut désormais devenir, comme le souligne à juste titre le texte de la pétition de mars 2023, un formidable instrument de manipulation de l’opinion, en particulier au moment des élections, mais aussi de « surveillance et de contrôle » des citoyens ». Luc Ferry propose différentes mesures possibles pour lutter contre cette utilisation malicieuse de l’IA, et il insiste, à juste titre, sur la combinaison dangereuse de l’IA et des réseaux sociaux. Il en conclut, et je le rejoins, qu’il est temps de lever la possibilité d’anonymat à l’heure des « deep fakes » : « Il faut, troisième urgence à mes yeux, et c’est désormais une évidence, lever enfin l’anonymat sur les réseaux sociaux, ce qui peut se faire très aisément de deux façons, ou si l’on veut, en deux étapes : à l’entrée, au moment de l’inscription sur un site même très modérément payant (on donne alors sa carte de crédit comme on le fait par exemple sur Amazon Prime), ce qui permet de connaître immédiatement l’identité de l’auteur d’un post si une enquête de police est conduite à la suite d’un message illégal (raciste, antisémite, appel au meurtre, au viol, diffamation, etc.) ; ou bien, plus clairement encore, en obligeant les internautes à signer de leur nom et à assumer leurs propos, ce qui est tout de même un minimum dans tout débat démocratique ». Autrement dit, et d’un point de vue de technologue, le premier rempart contre l’imitation des IA génératives, c’est l’intensification de l’identification certifiée.
Tout comme pour le livre précédent, et même probablement plus souvent, j’ai quelques points de désaccord, mais je recommande la lecture de ce livre qui m’a profondément fait réfléchir. En premier, je pense que, comme le livre précédent, Luc Ferry surestime les possibilités de l’IA d’aujourd’hui, non pas qu’il exagère des succès bien réels, mais il sous-estime les faiblesses qui existent encore (il a un gros biais de sélection et on parle plus de ce qui est extraordinaire, par exemple avec Claude Code, de ce qui est médiocre, qui reste fréquent). Ceci dit, en vertu de la perspective « moyen terme », ce n’est pas très important, comme ne l’est pas non plus une vision quelque peu simpliste du fonctionnement des algorithmes RAG (retrieval augmented generation) et de ce qu’ils peuvent vraiment faire : « La RAG, une fois bien entraînée, peut donner au chef d’entreprise toutes sortes d’informations utiles, elle peut évaluer un projet, son coût, son utilité, ses retombées économiques, donner des précisions précieuses sur les innovations qui fleurissent dans son domaine, sur ce que font ses concurrents, des conseils de gestion, des idées de nouveaux produits, etc. ». Il cite Ivana Bartoletti qui, pour défendre la position qu’« il n’y a rien de magique là-dedans ce sont des mathématiques pures », propose une description des systèmes à base de LLM qui est simpliste et ne correspond pas à la réalité complexe d’un modèle comme GPT5.2 ou Opus 4.6 (écouter le podcast « State of AI 2026 » précité pour mieux comprendre toutes les composantes d’un tel système).
J’ai un point de désaccord plus profond vis-à-vis de la critique, juste mais facile, de l’humanisation des comportements et fonctionnements des IA. Il est vrai qu’humaniser le comportement des machines n’a pas de sens, mais c’est naturel : « Les humains ont tendance à voir de la conscience là où il n’y en a pas, ce qui relève de l’anthropomorphisme, et donc revient à se laisser berner … La tendance à humaniser le comportement des machines n’a pas de sens. On leur donne une conscience qu’elles n’ont pas. Et lorsqu’on s’égare sur cette pente, cela nous éloigne des vrais débats qu’il faut avoir sur les risques de l’IA ». Je pense, comme Mustafa Suleyman dans son essai « Seemingly Conscious AI is coming », que « AI is hacking our empathy circuits ». Je vous recommande son interview dans le podcast de Azeem Azar. En particulier, Mustafa Suleyman explique pourquoi la conscience est plus qu’une capacité réflexive de « world model », mais une expérience intimement liée à l’expérience de la douleur et de son interaction avec son système de valeur. Ce point n’est pas antagoniste avec ce qui est proposé dans le schéma 1, une fois postulée la conscience artificielle comme une propriété émergente autopoïétique. Plus prosaïquement, dans la relation avec l’IA, une partie de la créativité, des émotions, du ressenti vient de ce que l’utilisateur humain « apporte » ou « projette ». Il faut en effet considérer le système humain+IA et ne pas éluder cet anthropomorphisme, « parce qu’il n’aurait pas de sens ». Je pense donc deux choses qui sont très différentes de la position de Luc Ferry : (1) les résonnances anthropomorphiques qui se produisent lorsque l’humain interagit avec l’IA font partie du sujet, et lorsqu’on analyse l’IA la réaction de l’utilisateur fait partie de l’expérience (« même si c’est un placébo ») (2) dans une vision très performative des capacités de l’IA, comme souligné par Bertrand Meyer, on peut se poser la question de l’utilité des émotions artificielles et consciences artificielles (Schéma 1) pour permettre une meilleure «intelligence comportementale » (fondée sur l’adaptation et la résolution de situations complexes). Et cette question est bien une question scientifique, puisque cette affirmation est falsifiable (en clin d’œil à Luc Ferry qui cite très justement Karl Popper). L’avenir dira si les intuitions du schéma 1 sont fondées ou non.
3.2 Une prospective paramétrique de l’impact de l’IA sur le monde du travail
Je vais reprendre la décomposition proposée dans mon billet de 2016 sur le futur du travail (pour les anglophiles, la traduction de 2019 est plus aboutie). Mais je me pose également 3 questions auxquelles je n’ai pas les réponses, dans une perspective de moyen terme, une fois plusieurs générations de progrès en IA établies, comme le suggère Luc Ferry :
· Quel est le taux de remplacement des activités de production et de transaction ? Il est clair, comme suggéré en 2012, que les activités de production se déplacent vers les robots et que les activités de transaction vers l’intelligence artificielle, mais à quel rythme ? Dans la figure qui suit, X représente le « taux de compression ». Par exemple, si vous pensez, comme Larry Ellison dans une keynote récente, qu’à la fin les entreprises fonctionneront avec le tiers des effectifs à iso-activité, X = 30%.
· Quelle est la part des emplois d’interaction que nous acceptons de voir effectuer par des robots ? Ma position depuis 15 ans est qu’il faut la limiter par régulation politique (par exemple Y <= 20%) mais les pays qui font face à un effondrement démographique sont prêts à agir différemment.
· Si l’on met en place un revenu universel (UBI), est-ce un désastre qui conduit à l’oisiveté, la dépression et la violence, ou la possibilité de permettre à des citoyens de vivre d’une activité à forte rentabilité sociale mais faible rentabilité économique ? Le paramètre Z de la Figure suivante représente la fraction des récipiendaires du UBI qui trouve cette utilité sociétale. Je n’ouvre pas ce débat ici, on aura compris que pour Luc Ferry, Z est très faible, alors qu’il est plus élevé pour moi.
Ces trois questions sont des « Key Known Unknowns » (dans la terminologie CCEM). Comme je ne connais pas la réponse, je représente ces réponses par trois paramètres X, Y, Z dans la figure suivante, qui reprend l’analyse de 2016 en prenant en compte ce qui vient d’être dit :
- On part de la décomposition des activités en trois catégories : production, transaction interaction, selon l’’article de Susan Lund, James Manyika et Sree Ramaswamy, intitulé « Preparing for a new era of work » (Mc Kinsey Global Institute),
- La prospective de 2016 se traduit par 3 sphères : le travail salarié dans des entreprises (organisé en réseau avec des plateformes et des micro-entreprises), les emplois non-délocalisables de service à la personne fondés sur les interactions, et la sphère des personnes sans emploi, qui est subdivisée selon l’utilité sociétale (assistés, UBI actif et « volontaires »).
- Les politiques sont relativement impuissants face à la compétition mondiale qui gouverne la première sphère (X appartient aux entreprises), mais la deuxième sphère est constituée d’activités non délocalisables, donc sous un contrôle politique (en particulier le choix de Y est un choix de société). Le traitement de la troisième sphère est plus complexe, bien sûr, que ce qui est représenté et relève d’un narratif sociétal pour éviter la malédiction évoquée par Pierre-Noel Giraud dans son livre « L’homme inutile ».
Figure 2 : Un modèle paramétrique pour penser aux équilibres
Je n’ai pas le temps ici de trop détailler ce modèle. L’intérêt des trois sphères est de pouvoir se poser des questions sur les équilibres : avons-nous le bon ratio de personnes employées et/ou utiles pour que la société soit stable (je vous renvoie ici à l’excellent livre d’analyse prospective de Langdon Morris, « Hello Future ! »), est-ce que la sphère A produit assez de valeur pour couvrir B et C, est-ce qu’il y a une « classe moyenne » dans les sphères B et C pour représenter un marché diversifié (à l’opposé d’une division dystopique « A for A »), etc. On aura compris que je souhaite et espère qu’une forme de régulation laissera les métiers d’interaction aux humains. Je me rapproche ici de Laurent Alexandre et Olivier Babeau qui écrivent : « L’humain qui soigne un autre humain reste irremplaçable, même si l’IA l’assiste. On peut aussi associer les activités liées à la proximité humaine : les métiers de l’accueil, de l’hospitalité, de la médiation comme serveurs, concierges, animateurs, coachs, médiateurs culturels. On n’achète pas seulement une prestation, on partage une expérience humaine ». Ce schéma illustre aussi le débat que nous venons d’avoir autour de la destruction créative de Schumpeter (en vert) qui voudrait que plus X augmente, plus le terrain de jeu adressable augmente, tandis que « l’argument de la finitude des ressources » (en orange) invalide cette hypothèse pour ce qui concerne l’économie matérielle. En effet, le monde des opportunités immatérielles est probablement infini (autrement dit, nous allons continuer à construire du logiciel, une opinion partagée par Grady Booch et Steven Sinofsky (et c’est probablement pour cela qu’IBM veut augmenter ses embauches de juniors). Notons pour terminer que cette figure n’est pas une prévision, c’est un générateur de modèles (en fonction des 3 paramètres). On peut par exemple, si l’on pense qu’on va généraliser, comme les Chinois, les robots d’interaction, cela conduit à se poser la question du nombre résultant d’actifs, et, par conséquent la question de la stabilité de la société (cf. Morris ou Giraud). Pour sourire, je vous livre ici un ajout proposé par GPT (c’est le seul, le reste est ma propre prose) : « Le schéma paramétrique esquissé dans ce texte n’est pas un simple outil pédagogique. Il constitue, à mes yeux, un point d’entrée plus fécond que les débats binaires sur “remplacement ou complémentarité”. En remplaçant les prophéties par des paramètres ajustables, il permet d’explorer des scénarios cohérents et d’identifier les leviers réellement politiques. Je reviendrai prochainement sur ce cadre d’analyse, qui mérite un développement à part entière. »
4. Un nouveau modèle de société dystopique à l’horizon ?
Dans cette dernière section, je vais approfondir les questions que pose les hypothèses abordées dans le livre de Luc Ferry, à savoir l’avènement d’une IA générale capable de faire quasiment tout ce que nous faisons et d’être implantée dans des robots.
4.1 Un nouveau modèle sociétal de partage de valeur ?
(1) L’approche agentique décuple les progrès qu’apporte l’IA générative. Je n’y reviens pas parce que je l’ai détaillé dans mon billet précédent, mais je partage ce point de vue. Aymeric Roucher n’a pas un point de vue neutre, puisque sa nouvelle aventure entrepreneuriale suit sa conviction sur la puissance de l’approche agentique, mais il parle avec une vraie expérience. Il s’appuie sur l’approche popularisée par METR, qui mesure la puissance des agents au temps qu’il faudrait à un humain pour effectuer la tâche d’un agent : « Pour mesurer la puissance d’un modèle d’IA, nous proposons une mesure à la fois plus simple et directement liée à une utilité réelle : l’horizon d’autonomie d’un agent construit sur ce modèle, à savoir la durée des tâches que l’agent serait capable de résoudre en autonomie avec une performance satisfaisante ». Il faut se rappeler que les graphes de METR considèrent des tâches accomplies à 50% ou 80% de succès, ce qui est pertinent dans des cas d’agents placés dans des boucles de contrôle, mais moins pour des futurs agents autonomes. Cela n’empêche pas Aymeric Roucher de faire des prévisions (très) optimistes : « En conséquence, dès 2026, nous saurons développer des assistants agentiques d’une autonomie de l’ordre de l’heure, et selon le même mécanisme que dans notre exemple de l’employé achetant des chaises, l’emploi de ces assistants permettra de doubler notre productivité pour des tâches du domaine numérique ». Et pour Aymeric Roucher, il ne fait pas de doute sur le fait que les progrès en automatisation se traduisent en réduction du nombre d’emplois touchés par cette automatisation : « En définitive, à demande constante, doubler la productivité de chaque employé reviendra donc à supprimer la moitié des emplois. Automatisation ou augmentation de productivité aboutissent au même résultat ».
(2) : Comme Luc Ferry, Aymeric Roucher considère le moyen terme avec une très forte probabilité de révolution, c’est-à-dire de transformation très profonde. Il ne s’agit pas d’une certitude, mais d’une forte probabilité qui appelle à un « pari Pascalien » : « Peut-être que l’IA s’arrêtera quelques marches au-dessus de sa forme actuelle, déjà très utile mais pas radicalement transformatrice, et que notre réflexion sera vaine. Mais si elle continue de progresser, elle transformera l’humanité de manière vertigineuse. Nous allons donc nous placer, pour toute la suite de ce livre, dans le monde qui semble être le nôtre depuis des années, le monde où les lois d’échelle continuent de tenir ». L’auteur examine alors les conséquences possibles de cette révolution technologique probable : « Dans ces chapitres, nous explorerons les changements que cela implique, selon plusieurs axes, à l’horizon d’une dizaine d’années. Soyez bien conscients en lisant ces pages que tout en voulant donner une analyse dépassionnée, je redoute beaucoup de ces changements que j’annonce. Mais je pense qu’il est de notre devoir de les aborder de front ». On retrouve ici le fil rouge des quatre livres : le quand et comment de cette révolution IA n’est pas encore clair, mais il est temps de réfléchir aux conséquences, dont certaines sont clairement inquiétantes. On retrouve dans les propos d’Aymeric Roucher l’idée que si le travail va être redistribué aux robots et à l’IA (y compris dans les robots), les limites physiques de la planète poussent à remettre en doute la destruction créative de Schumpeter : « La question est donc ouverte : l’économie mondiale pourra-t-elle croître plus encore que la part de travail allouée aux IA ? … Notons d’abord que la croissance mondiale se produisant sur une planète aux ressources physiques finies – l’espace, l’énergie et les matériaux –, elle finira par être ralentie par ces limites physiques : les arbres ne montent pas jusqu’au ciel ». Cela conduit à se poser la question « L’économie mondiale pourra-t-elle croître plus encore que la part de travail allouée aux IA ? ». Aymeric Roucher est proche de Pierre Col dans son billet récent « Jusqu’où ira l’IA, et pour quel impact sur l’emploi ?».
(3) En conséquence, la transformation profonde du travail va s’accompagner d’une forme de revenu universel. Sans surprise, les convictions d’Aymeric Roucher sur la question précédente le conduisent à envisager la mise en place d’un revenu universel, sur lequel son opinion est plus positive que celle de Luc Ferry : « Envisageons alors une deuxième voie. Quand un employé ne peut plus vendre ni ses bras ni son cerveau, que lui reste-t-il à proposer ? Il lui reste encore d’être un homme. Les travailleurs se déplaceraient donc vers d’autres secteurs où le travail manque encore, tous ceux du social où un sourire, une pression de main humaine sont irremplaçables, tous ceux du politique et de l’associatif où est engagée la question de la responsabilité, ceux du spectacle, de la danse, de la musique, où la performance humaine continuera de couper le souffle et de faire scintiller les yeux du public.
(4) Il est temps de tenir compte du rapport Draghi pour corriger les fortes contraintes qui pèsent sur la compétitivité de l’Europe. Aymeric Roucher constate que l’Europe, face à cette explosion technologique, se distingue en premier lieu des autres pays par son aversion au risque : « Comparé aux marchés chinois ou américain, le marché européen est limité du côté de l’investissement par son aversion au risque, et du côté de la demande par un moindre appétit pour les hautes technologies, et de l’IA en particulier ». L’académie des technologies avait fait le même constant dans son rapport de 2018. Le livre donne le point de vue fort intéressant d’un acteur du domaine, et explique en quoi les exigences Européennes sont complexes : « Les contraintes réglementaires rendent coûteuse l’arrivée sur le marché, comme le montre l’exemple du RGPD. Selon le rapport sur la compétitivité rendu par Mario Draghi à la Commission européenne, il coûterait 500 000 euros aux petites entreprises, et jusqu’à 10 millions aux plus grandes ». Les contraintes règlementaires sur l’IA font que les entreprises « doivent détailler publiquement l’architecture et le nombre de paramètres de leur modèle, ainsi que le détail des données utilisées pour l’entraînement – obligation confirmée par le Code de pratique publié en juillet 2025. Ces informations hautement confidentielles constituent le cœur de la propriété intellectuelle des producteurs de modèles d’IA ; il faut donc s’attendre soit à ce que les entreprises fassent des acrobaties de langage pour ne rien dévoiler, auquel cas cette publication sera inutile, soit qu’elles évitent de publier leurs modèles avancés en Europe, auquel cas la loi sera contre-productive ». Je vous laisserai lire les commentaires assez savoureux de l’auteur sur les compétences des cabinets de conseil des politiques. Je vais ajouter ici une citation de Nicolas Bouzou, fournie par Alexandre et Babeau : « Quand on regardera avec quelques décennies de recul la période actuelle, ce qui restera, ce sont les extraordinaires avancées de l’innovation et la capacité des pays à en faire des opportunités de prospérité. C’est bien la façon dont on regarde aujourd’hui la Renaissance, la révolution industrielle ou la Belle Époque. C’est pourquoi la priorité politique d’un pays comme la France devrait être d’investir dans l’énergie, le capital humain, et les infrastructures afin de placer notre nation dans une position favorable dans ce contexte. Nous avions su le faire à la fin du XIXe siècle, la France étant leader de l’automobile, de l’aéronautique et du cinéma. Aujourd’hui, nous sommes largués ».
4.2 Un nouveau modèle qui menace les valeurs partagées de l’humanité ?
(1) La première idée que je retiens est que le numérique nous enrichit et nous limite « en même temps » : Eric Sadin parle d’augmentation mutilante. Ce terme d’« augmentation mutilante » est un joli oxymore, très juste, et qui pose bien le problème : « l’heure est venue de constater que la fréquentation continue de nos compagnons numériques induit un déséquilibre psychique et existentiel ». Ce que nous gagnons peut aussi nous appauvrir en termes de savoirs et savoir-faire. Eric Sadin a recours à la même métaphore de la « protection des espèces » que j’employais en 2009 dans le billet « biodiversité et compétences » : « On évoque souvent l’extinction d’espèces animale ou végétales en raison de nos modes de vie. Dorénavant, doit être autant envisagée la disparition de certaines – et précieuses – espèces de compétences »
(2) Les forces naturelles de l’économie vont conduire à faire rentrer l’IA en excluant l’homme. Eric Sadin propose une analyse semblable à celle présentée plus haut d’Aymeric Roucher, fondée sur la logique économique vue comme un rapport de force : « Car, c’est omettre la dynamique qui, depuis deux siècles, n’a eu de cesse de s’imposer, à savoir que l’humain représente une simple variable d’ajustement au regard des gains de productivité et de coûts que peut venir offrir un appareil technologique ». En conséquence, les progrès spectaculaires de la capacité de l’IA et des robots à faire notre travail pose la question de la société de demain, « c’est-à-dire d’un monde duquel l’humain sera majoritairement, et d’une manière grandissante, exclu de la marche des choses ». Je vous laisserai lire le livre pour constater que si l’automatisation des tâches manuelles lui semble une bonne chose, l’automatisation des « professions à hautes compétences cognitives » lui semble être un véritable scandale 😊 Eric Sadin arrive naturellement à la question posée il y a 10 ans par Pierre-Noel Giraud : « Et alors, c’est la question de la pérennité de ce que c’est qu’être un homme et ce, depuis la nuit des temps, qui se poser à l’heure de l’inutilité de faire appel à tant de nos aptitudes ». Eric Sadin exprime aussi, avec beaucoup de pertinence, la forte probabilité que le 21e siècle soit celui de la fin du « modèle de la destruction créatrice » comme nous l’avons vu dans la section précédente : « bientôt, d’ici le début de la prochaine décennie, sera criant à nos yeux : nous vivons actuellement la fin effective du dogme schumpétérien ayant prévalu depuis près d’un siècle ». Comme Eric Sadin affirme, un peu vite à mon goût, qu’il n’existe pas de secteur quaternaire de l’économie, il suffit de regarder la Figure 2 pour comprendre qu’il reste alors peu de place pour les activités humaines.
(3) Même si elle apporte de la valeur dans la conduite des activités humaines, l’IA pousse naturellement à un monde désincarné, complexe et éloigné du terrain. Cette part critique du livre est très intéressante. Il part d’une formule de Lacan, « le réel est ce à quoi on se cogne », et lui oppose la « raison instrumentale » de l’IA, qui cherche à faire prévaloir des modes d’organisations ne laissant place qu’à sa seule vision fonctionnaliste du monde. On retrouve ici le risque de confondre la carte et le territoire, de vivre dans un monde abstrait de modèles que l’IA a fait advenir. Eric Sadin cite Giorgio Colli, « la faiblesse du monde moderne vient d’une hypertrophie de la pensée abstraite », et voit une dérive naturelle à ignorer ce réel « auquel on se cogne » au profit d’une abstraction théorique : « Et c’est là que l’IA est venue donner une toute autre mesure à ces ambitions, vu qu’elle permet non-seulement de contourner le réel, mais d’en faire advenir un autre – celui-ci entièrement soumis à notre loi ». Au contraire, en réponse à l’idée que l’IA libère du temps pour des tâches plus nobles, Eric Sadin explique, et je suis d’accord avec lui, que les tâches de préparation sont nobles : « autant d’actions qui, toutes, même si fastidieuses, revêtent une importance et auront permis de faire mûrir un processus avant de lui donner une forme aboutie ». Il aurait pu ici faire référence au « Festina lente » de Nassim Taleb. A la suite de Hannah Harendt qui écrit, « Plus la vie publique a tendance à se bureaucratiser, plus s’accroît la tentation du recours à la violence », Eric Sadin remarque que le développement de l’automatisation augmente mécaniquement la fragilité (une fois de plus, on retrouve des idées de Nassim Taleb) et l’injustice. Sur cette idée fondamentale que l’automatisation couplée à la complexité produit de la fragilité, on pourrait citer ici Olivier Hamant et son livre, « La troisième voie du vivant ».
(4) Le numérique en général, et l’IA en particulier, nous conduisent, en conséquence de ce monde désincarné, à réduire notre intérêt et considération pour autrui. C’est un point fondamental, qui dépasse d’ailleurs la question de l’IA et le thème de ce billet, celui de l’effondrement du collectif dans nos systèmes de valeur et l’hypertrophie de l’individualisme. On pourrait ici convoquer Michel Maffesoli et ses propos fondateurs sur la crise des « méta-narratifs », qui se transforme en une dérive des valeurs et une dérive de la culture, puisque le collectif se nourrit de récits communs. Ce qui est intéressant, et c’est le point d’Eric Sadin, c’est que ces problèmes sont exacerbés par l’arrivée de l’IA : « Ce qu’aura engendré l’individualisme débridé et généralisé à partir du tournant des années 80 et qui, deux décennies plus tard, s’est vu démultiplié par l’usage des technologies numériques, et ce, de façon indéfiniment croissante jusqu’à nos jours, c’est un monde où les êtres en sont aujourd’hui arrivés à continuellement tout ramener à eux ». Eric Sadin prend le développement de Netflix comme un exemple de la résonnance entre individualisme et numérique : « Ce n’est pas que la fréquentation de Netflix, ou d’autres plateformes, empêche d’aller au cinéma, ou de fréquenter les lieux culturels … mais que dans la vie ordinaire, mais aussi dans le champ de la culture, s’impose le principe selon lequel seul le contentement des individus prévaut ». Eric Sadin développe alors cette idée fort puissante que les outils numérique et l’IA ont la fâcheuse conséquence de nous faire « oublier autrui ». Alors que la reconnaissance de l’autre est une fondation indispensable pour une société harmonieuse : « Selon les âges, au cours de nos vies et du quotidien, nous avons besoin, à l’origine, de nos parents, puis d’un enseignant, d’un médecin, d’un maraicher, d’un boulanger, d’un plombier … bref, cette liste pourrait ne jamais finir tellement sont foisonnantes les qualifications desquelles nous dépendons ».
(5) La première activité qui est impactée et à risque par l’arrivée de l’IA cognitive est l’éducation, en tant que lieu de la transmission, non seulement de savoir, mais aussi de valeurs. On va retrouver ici une partie des idées proposées dans la Section 2. Il pose la question légitime de la satisfaction d’un enseignant qui se voit en compétition avec l’IA générative pour dispenser des savoirs. Contrairement au livre de Laurent Alexandre et Olivier Babeau, le ton est sombre et il s’agit plus de poser un diagnostic que de proposer des alternatives. Eric Sadin critique les plateformes d’éducation hybride et le principe d’une éducation trop personnalisée / utilitariste qui serait pilotée « par la tech », par ce qu’elle conduirait à un savoir fragmenté et trop spécialisé – « à trop adapter le contenu on réduit le rôle de développement de l’apprentissage ». Ce ton sombre s’exprime dans la critique qu’il fait de la posture de Marie-Françoise Saudraix qui compare l’adaptation à ChatGPT à Wikipedia. E. Sadin la fustige : « des propos marqués par une telle irresponsabilité et une telle naïveté laissent sans voix ». La critique est brutale, mais la justification est faible : « comme si les IA génératives s’inscrivent dans la continuité logique de ces technologies, alors qu’elles procèdent d’un franchissement de seuil, dans la mesure où elles ne prodiguent pas seulement de l’information, mais sont productrices de langage ».
Comme je l’ai fait dans les sections précédentes, je vais brièvement évoquer quelques points de désaccord. Premièrement, il y a une « dramatisation » de l’arrivée de GPT 3.5, qui ignore ce qui avait été fait avant et tout ce qui a été fait depuis. Pour lui, « il n’aurait jamais fallu accepter GPT 3.5 », sans que cette « acceptation » soit clairement définie. Cette notion de refus catégorique – « C’est ce que nous aurions dû faire dès les premiers jours du lancement de ChatGPT, avant tout pour sauvegarder la vitalité d’esprit et l’autonomie de nos enfants – autant que les nôtres » - ignore la complexité des enjeux et rapports de pouvoir. Elle élimine aussi d’un revers de main l’idée que l’IA générative puisse être utile, au vu du risque existentiel. Là où le livre propose un débat intéressant et argumenté sur les dangers associés à l’utilisation de l’IA comme « copilote », le thème cœur du livre, que l’utilisation de l’IA est une trahison de l’humanité, est en fait peu argumenté, autrement que par des invectives : « Oui ! une certaine sphère intellectuelle en est arrivée à un tel niveau de crédulité, à se figurer pertinent d’explorer des chemins de pensés en s’appuyant des technologies produites par la pointe avancée du techno libéralisme ». Il y a aussi des incohérences ironiques puisqu’on oscille entre les affirmations que l’IA générative est un répéteur de trivialités commune et le fait qu’elle nous prépare un monde sans Dante, Shakespeare et autres génies littéraires. Le livre se termine avec l’idée que l’IA est un fondamentalisme - une idée discutable mais que je trouve intéressante à lire - qui s’appuie sur 5 piliers : l’approbation coupable par les politique, l’obsession du monde de la tech à agrandir son pouvoir, les économistes qui cherchent la croissance partout et à tout prix, une population d’intellectuels et juristes qui vivent de la couche d’abstraction qu’ils créent et, bien sûr, la presse qui joue le rôle d’amplificateur de sensationnalisme « sans comprendre et se poser les questions de fond ». A l’inverse, la position d’Eric Sadin sur le fait que l’idée de régulation est un « leurre mortifère » me semble simpliste. Pour lui, l’idée que la régulation peut tempérer certains des problèmes évoqués dans ce billet est absurde : « Il n’existe pas d’équivalent d’une perception collective atteignant un tel niveau de croyance alors qu’elle a faux du tout au tout ». Le raisonnement final est simple : les risques sont existentiels, il n’est pas acceptable de parler de bénéfices face à de tels risque, la prévention des risques est impossible, seule la précaution radicale consistant à l’abandon de l’usage de l’IA générative est indiquée. Je pense au contraire que la régulation a un rôle à jouer, que le débat risques/bénéfices est important, que l’analyse politique des acteurs et des rapports de force est essentielle (un point commun avec Eric Sadin) mais que l’immobilisme n’est pas une option (disons que, dans une perspective de théorie des jeux, ce n’est vraiment pas un équilibre de Nash, et que l’immobilisme des uns pousserait les autres à en tirer un avantage).
5. Conclusion
Avant de conclure, je vais partager une autre anecdote. Menant de multiples projets en parallèle, j’étais en retard pour écrire ce billet parce que j’avais mis plus de temps que prévu à porter le nouveau modèle CCEM v8 sur mon site Web (via génération de Javascript par CLAIRE). Maintenant que GPT 5.2 peut me certifier que mon code est conforme à mon modèle mathématique, je suis assez pressé de faire cette publication. Mais mes petites vacances n’ont pas suffi et le nouveau simulateur Web ne tournait pas. J’ai simplement confié à Claude Code le soin de me réparer tout cela, ce qu’il a fait très rapidement en corrigeant directement mon code, ce qui m’a permis de me remettre à mon texte. Tout cela pour dire que je suis conscient de vivre un moment d’accélération exceptionnel.
Cela étant dit, voici les points principaux qui illustrent où j’en suis aujourd’hui dans ma réflexion :
Les questions soulevées dans ce billet sont complexes. Je n’ai pas de vision claire à partager, les livres que j’ai cités non plus, mais ce sont des excellentes lectures pour vous aider à réfléchir.
Après ces lectures, il me semble clair que la commoditisation de l’intelligence cognitive est en marche et cela va changer considérablement les rapports de force et les équilibres entre capital et travail, entre compétence et puissance.
Le texte de Matt Shumer, « Something big is happening”, que j’ai signalé en introduction se conclut par une série de recommandations pratiques, des conséquences à tirer de la possible révolution qui vient. Je vous conseille de les lire.
- Sur la venue d’une AGI et les transformations que cela pourrait apporter : je n’en sais rien, mais cela mérite d’y réfléchir comme le souligne Demis Hassabis. Je vous ai partagé les deux schémas des figures 1 et 2, non pas parce qu’ils éclairent la date possible d’émergence, mais parce qu’ils permettent de construire et discuter des scénarios.





