mercredi, avril 01, 2015

RT42 - une brève histoire du transhumanisme




1. Intrication quantique et transfert d'information vers le passé



L’intrication quantique (quantic entanglement en anglais) est une des notions les plus surprenantes de la physique quantique. Comme c’est illustré sur la figure à côté, ce phénomène se produit, par exemple, lorsque deux particules forment un système unique indépendamment de la distance qui les sépare, avec une totale corrélation des propriétés physique des particules, ce qui fait penser à une forme de « communication instantanée ». Pour reprendre les termes de Wikipedia, « L'intrication quantique a un grand potentiel d'applications dans les domaines de l'information quantique, tels que la cryptographie quantique, la téléportation quantique ou l'ordinateur quantique. »



Là où les choses se corsent, c’est que l’on commence à évoquer une intrication qui lie des particules dans le temps et dans l’espace. Dans cet article de Wired, on peut lire que l’intrication pourrait s’étendre, non seulement dans l’espace, mais aussi dans le temps, permettant, selon le physicien S. Jay Olson, d’envoyer un état quantique dans le futur. Ce couplage entre les deux particules est ici évoqué de façon non-symétrique, du passé vers le futur, mais la symétrie de l’intrication permet d’évoquer l’utilisation de l’intrication quantique comme véhicule pour faire voyager de l’information dans le temps.

Faire voyager un bit d’information vers le futur n’est pas le sens le plus intéressant, c’est ce que permet précisément le stockage. C’est ce que vous faites en enregistrant une photo sur un disque dur. En revanche, pouvoir faire voyager un bit d’information vers le passé est extrêmement intéressant, et porte le nom de PFB (Past Forward Byte). C’est simple dans son principe, une des deux particules intriquées joue le rôle de récepteur et permet de lire le signal qui est envoyé en agissant sur l’autre particule qui se trouve dans le futur. Il n’y a pas encore de résultats publiés sur la faisabilité des PFB, mais c’est un sujet de recherche intense et passionnant dans le monde de l’intrication quantique. Les intérêts économiques sont tels que même la mafia s’y intéresse et est suspectée de faire circuler des informations propriétaires et secret-défense au travers de fausses chansons (cf. Byte1 Past Forward).



2. Le CEA et le Quantum Infinite Computing



En France, le CEA a un intérêt particulier pour ces domaines, en particulier l’intrication quantique, pour les raisons que nous venons d’évoquer (applications civiles et militaires, dans le domaine de la cryptographie notamment). Je vous conseille d’ailleurs la thèse de Jean-Marie Stephan comme une très bonne vulgarisation des concepts de l’intrication. Le CEA n’est pas en reste sur les applications au domaine du voyage dans le temps, comme en témoigne ce séminaire organisé en 2009.

Mais ce qui intéresse vraiment le CEA, ce sont les ordinateurs quantiques. L’ordinateur quantique utilise la superposition des états quantiques pour réaliser plusieurs calculs de façon simultanée. On peut de la sorte introduire une forme de parallélisme massif. L’application en cryptographie est évidente puisqu’on peut ainsi résoudre des problèmes en temps linéaire en fonction de la taille de la clé de chiffrement, au lieu du temps exponentiel qui caractérise les approches classiques. Comme le mentionne l’article de Wikipedia, les chercheurs s’intéressent également à l’utilisation de l’intrication quantique dans le domaine du calcul quantique.

Lorsqu’on introduit le principe du PFB dans l’ordinateur quantique, on obtient le concept de quantum infinite computing (QIC) une des formes les plus intéressantes de l’hypercomputation. Le domaine de l’infinite computing est également le sujet d’une compétition féroce, comme en témoigne la couverture de TIME magazine du 17 Février 2014 ci-contre.  Le principe théorique du QIC est en fait simple. Il s’agit d’un algorithme construit autour d’une boucle infinie dont la condition de sortie est contrôlée par un PFB. Le PFB permet à l’execution de boucles dans le présent de bénéficier d’indications fournies par des boucles futures. L’application évidente est la recherche opérationnelle (les problèmes NP-complets) et la cryptographie. J’ai d’ailleurs été invité par le CEA en tant que membre de l’Académie des Technologies expert en optimisation combinatoire.

Si l’on prend l’exemple classique du problème de voyageur de commerce, un algorithme de Branch & Bound va pouvoir bénéficier d’une rétro-propagation du calcul des bornes du présent vers le passé, et obtenir le résultat optimal en temps constant. Il ne faut pas s’imaginer qu’un nombre infini de boucles s’exécutent dans un temps constant, ce qui violerait les principes de la thermodynamique appliquée au calcul, mais plutôt que l’ordinateur construit par logiciel un piège de la fonction d’onde dont l’unique solution quantique est indicative de la solution du problème original. 

le QIC est plus puissant que le qubit computing, dont il a été prouvé qu’un ordinateur quantique utilisant des qubits est PSPACE-reductible (un ordinateur quantique qui calcule en temps polynomial peut être simulé par un ordinateur classique disposant d’un espace polynomial). Le QIC est clairement une approche révolutionnaire pour la cryptographie, avec une puissance infinie de déchiffrement.

J’avais déjà eu la chance de visiter Tetatec avec l’académie des technologies il y a quelques années. J’ai été invité à nouveau le mois dernier pour visiter le laboratoire commun du CEA dédié au quantum computing. Ces recherches sont classifiées secret défense, donc je n’ai vu qu’une petite partie du programme de recherche et je ne peux pas non plus dire grand-chose de ce que j’ai vu, mais il est clair que le CEA avance à grand pas, en particulier grâce à l’aide du PFB. En effet, le labo confidentiel établi de façon conjointe par le CEA, le CNRS et la Singlarity University dispose d’une avance mondiale sur l’intrication quantique dans le temps et l’espace et a réussi ses premières expériences de PFB. Cela leur permet une collaboration avec une équipe dans le futur, dirigé par Robert Magnus Consciento, qui leur fournit des indications grâce aux deux PFB qui sont fonctionnels aujourd’hui. L’envoi d’information vers le passé reste très long et laborieux, sous forme de mémos intitulés RT xxx (RT pour Rob’s Testimony). Par exemple le mémo qui permet de travaille sur le QIC est le RT 117, que je n’ai pas pu voir, n’étant pas habilité.

Tous ces mémos sont classifiés sauf un texte, le RT42, considéré comme plus philosophique que technique, qui traite de la singularité, de la contrasingularité et de l’immortalité. Comme toujours dans ce blog, je ne vais pas vous faire un résumé détaillé mais plutôt souligner les points qui m’ont semblés les plus intéressants. Etant donné mon intérêt pour le transhumanisme, j’ai évidemment dévoré ce témoignage du futur – envoyé le 5 Octobre 2063 - avec passion.


3. De l’autre côté de la singularité




La première chose qui m’a frappé est que la singularité a bien eu lieu, un peu après 2050. Malgré les inquiétudes de certains aujourd’hui qui pensent que la Loi de Moore va trouver sa limite, nous avons été capables de démultiplier la densité des chipsets en trois dimensions avec des nano-matériaux permettant des nouvelles performances dans l’évacuation de la chaleur. Les courbes d’évolution de la puissance de calcul disponible sont finalement un peu en retard par rapport aux prédictions de Ray Kurzweil, mais pas de façon importante. Les premiers ordinateurs dont la puissance de calcul est du même ordre que le cerveau sont apparus en 2030. A l’échelle de l’histoire, un retard de 10 ans n’est pas significatif. Cela a permis de passer les différentes étapes prédites par Ray Kurzweil, avec une puissance de calcul qui a dépassé la puissance du cerveau humain d’un facteur un milliard en 2053.

Cette puissance de calcul a produit des nouvelles formes d’intelligences artificielles spectaculaires, dont des AGI (Artificial General Intelligence) capables de passer le test de Turing dès 2027. Au-delà des machines de laboratoires, les assistants virtuels personnels ont acquis la maîtrise du langage suffisante pour passer ce test de Turing fin 2030, avec l’émergence simultanée des consciences artificielles. L’hypothèse, dite de Freeman-Morgenstern,  de l’émergence spontanée de la conscience dans tout système complexe réflexif capable d’appréhender sa propre existence et ses finalités, a été vérifiée expérimentalement. Cette hypothèse s’applique dès lors que la boucle homéostatique de perception de l’environnement inclut le sujet, et que la puissance déductive conceptuelle associée à cette capacité cognitive dépasse le pouvoir d’expression du langage de programmation des finalités utilisé par le concepteur.

Le test de Turing est d’ailleurs tombé en désuétude dès la fin des années 40, parce qu’il est devenu clair qu’il était plus intéressant de développer des « intelligences non-humaines », dans le sens où la capacité d’imiter l’homme n’est plus un objectif ou un critère de performance. Dans l’équipe de Rob, il y a une collaboration naturelle entre les hommes et les machines intelligentes, telle que prévue par Nicholas Carr.



4. La survie de la mort 



En revanche, la singularité ne s’est pas traduite par la « mort de la mort », les progrès constant de 2000 à 2050 sur la compréhension du vieillissement ne sont pas concrétisés par une augmentation significative de l’espérance de vie. Les progrès thérapeutiques semblent avoir été spectaculaires entre 2030 et 2050, en particulier dans les traitements des cancers. La promesse de nous conduire (presque) tous, à un âge centenaire, a été tenue pour ceux qui ont accès à la technologie moderne, mais la barrière des 120 ans semble résister. Tous les 5 ans, une nouvelle molécule ou technologie a été validée et introduite qui devait nous faire gagner 5 ans d’espérance de vie, mais il semble que plus nous comprenons une limite et comment la dépasser, plus nous découvrons de nouvelles complexités dans le vieillissement. Ce sujet fait encore débat en 2060, mais Rob semble plutôt pessimiste, vu le nombre d’annonces spectaculaires qui se sont ensuite avérées décevantes.

Les progrès en nano-technologies et biologie moléculaire sont bien au rendez-vous, comme l’annonçaient les équipes de la Singularity University ou de Calico. Il y a un marathonien de 95 ans dans l’équipe de Rob, et la qualité de la vie entre 60 et 100 ans a fait des progrès spectaculaires. La vision de la surveillance et réparation continue du corps humain est devenue une réalité. En revanche, l’intrication des mécanismes de vieillissement est maintenant beaucoup mieux comprise qu’elle ne l’était en 2010. Une partie de la recherche théorique porte sur la caractérisation de la complexité de la vie, une tâche qui semblait impossible en 2010 mais que les machines intelligentes de 2060 sont bien mieux capables de poursuivre. Ce type d’approche a permis de faire des progrès spectaculaires en météorologie, puisqu’on est capable de caractériser le temps à 20 jours (on ne parle plus de prévoir, la compréhension des systèmes complexes, y compris dans le grand public, est bien meilleure qu’au début du 21e siècle). Ces méthodes donnent plutôt raison à Rob, et font penser que l’allongement de l’espérance de vie va progresser lentement, au 22e siècle.

Devant les difficultés à maîtriser et contrôler les processus biologiques cellulaires, il y a eu beaucoup d’investissement sur l’uploading entre 2030 et 2045, en particulier chez Google (qui existe toujours !). Les premières décennies de recherche sur ce sujet ont été frustrantes, à cause de la difficulté à capturer les processus neuronaux avec suffisamment de finesse, et parce que les modèles de cerveaux se sont avérés trop simplistes pour obtenir des simulations réalistes. A partir de 2040, l’arrivée de la singularité a permis de commencer à faire des simulations beaucoup plus sophistiquées, tandis que les progrès en nano-technologies ont produit des outils de capture des processus cognitifs de nouvelle génération, qui ont rapidement remplacé les MRI des années 20. Malgré cela, les tentatives d’uploading ont été un échec. Les « processus cognitifs uploadés » (UCP) divergent rapidement vers des états qualifiés de « dépressions massives ». L’accès à toutes les informations fournies par les capteurs d’environnement ne compense pas la perte du corps. Ce problème a été résolu en modifiant les paramètres du simulateur neuronal, en laissant d’ailleurs le simulateur résoudre, grâce aux AGI, le problème de l’instabilité émotionnelle de l’UCP (ce qu’on appelle la méta-conscience depuis 2047). Le résultat est que les UCP stabilisés et modifiés sont trop différents des personnes qui ont été « scannées » pour que le résultat soit satisfaisant. Larry Page, en discutant avec un UCP stabilisé issu de son propre cerveau a fait cette réplique célèbre « This is not me ! ». Les expériences scientifiques ont montré que les AGI cultivées à partir d’un UCP sont moins performantes que celles obtenus à partir d’autres heuristiques.


Si l’uploading comme porte vers l’immortalité s’est avérée décevante, c’est en 2060 un processus industriel qui a remplacé les cimetières. Dans un premier temps, nous avions pris l’habitude de nous uploader pour offrir une continuité de présence à nos proches et nos familles. Puis l’arrivée des techniques de meta-conscience a permis de produire des avatars virtuels stables et émotionnellement satisfaisants, qui ont progressivement remplacé les pierres tombales. Du point de vue de l’évolution de l’humanité, c’est un changement important, nous sommes passés de l’inhumation et la crémation à la destruction, puisque c’est l’avatar qui prolonge le souvenir et la présence.

5. Le développement de la Contrasingularité 



En 2017, un biologiste et philosophe de l’université de Shanghai, Tsin Shao-Leu, disciple de Francisco Varela, a publié un article sur la contrasingularité qui a eu un retentissement spectaculaire 15 ans plus tard, au moment où les premiers signes de l’imminence de la singularité sont apparus. Je n’ai bien sûr pas lu cet article, mais voici ce que j’en ai compris à travers la lecture  de RT42.

Le principe de la contrasingularité est une classification de la résolution de problème, en fonction du type de complexité, lorsqu’on dispose d’une puissance de calcul qui croit de façon exponentielle avec le temps. Ce qu’on mesure est par exemple la taille maximale de l’instance du problème qu’on peut résoudre (pour un problème d’optimisation) ou le « degré de complétion » du problème. La contrasingularité distingue 4 types de comportements :
  • Les problèmes simples, dont la complexité est linaire ou polynomiale, sont résolus de plus en plus vite grâce à la croissance exponentielle de la puissance de calculs. Ils sont caractérisés par la courbe verte de la figure jointe, qui illustre logiquement une accélération exponentielle de la performance de résolution.
  • Les problèmes difficiles, sont ceux dont la complexité (par exemple la complexité algorithmique pour des problèmes d’optimisation) est elle-même exponentielle. L’avancement de la performance est alors quasi-linéaire avec le temps. L’expérience montre neanmoins, comme dans le cas du séquencage du génome, que plus on avance, mieux on comprend le problème et meilleurs sont les algorithmes, ce qui donne des résultats supérieurs à ce qu’on aurait pu prévoir par extrapolation linéaire (la résolution complète – t2 – arrive plus tôt que prévu en t0).
  • Les problèmes complexes ont la propriété inverse : la caractérisation du problème à l’instant (t0 sur la figure) n’est pas complète, et la progression de la puissance de calcul permet de mieux les explorer et les comprendre, révélant des interactions nouvelles qui ralentissent la résolution. Dans ce cas, on obtient la courbe jaune de la figure, et des dates de complétion qui sont plus tardives que ce qui était imaginé.
  • La dernière catégorie de problème comprend les problèmes mystérieux, ceux dont l’utilisation de la puissance exponentielle de calcul permet simplement de les comprendre de mieux en mieux, et de réaliser que la date de complétion recule alors que le temps avance.



Rob utilise la contrasingularité pour expliquer les progrès et les déceptions du 21e siècle de la façon suivante. Les sujets tels que les robots autonomes, l’intelligence artificielle générale, les interfaces entre le cerveau et l’ordinateur, sont des sujets difficiles. La singularité s’est traduite par des progrès spectaculaires dans ces domaines, comme prévu par Ray Kurzweil. Au contraire, les sujets de l’allongement de la vie ou de l’extension des capacités cognitives du cerveau par des implants  sont des sujets complexes, pour lesquels les progrès sont plus lents que prévu. Enfin, les domaines de l’uploading et de la fin de la mort biologique sont des problèmes mystérieux, pour lesquels les avancées considérables du 21e siècle font simplement mieux comprendre que la vision du début du 21e siècle était fortement incomplète.  Ses propos m’ont fait penser à cette citation de Saint-Augustin : « un mystère est une vérité  que l’on met toute sa vie à chercher à comprendre ».



6. Brève histoire du transhumanisme



La lecture du mémo RT42 permet de comprendre l’évolution de l’idée de transhumanisme au fur et à mesure des occurrences des progrès et des échecs que je viens de citer. Je n’ai eu que dix minutes pour consulter le document, mais j’ai retenu trois dates. L’essor très rapide des robots anthropomorphes est cassé en 2027 par un traité international, suite à la crise majeure provoquée en Chine comme en Europe par l’automatisation spectaculaire des années 20, qui voient les tâches de production confiées à des robots. En 2027, un accord interdit toute forme de robot qui ressemble trop à un homme, ou qui utilise des techniques d’empathie artificielle, telles que les neurones miroir. En 2044, j'ai noté le premier procès gagné par un programme conscient pour le droit à la non-terminaison. La notion de conscience artificielle se banalise progressivement pour aboutir en 2051 à une décision du comité d'étique sur la souffrance des machines consciente, qui interdit les expériences d'uploading en dehors d'un strict contrôlé médical.

Ce qu’il ressort de la lecture du document, c’est que l’idée du transhumanisme est progressivement abandonnée à partir de 2050. La machine n’est plus un idéal pour l’homme et l’homme n’est pas un idéal pour la machine. Les machines autonomes sont différentes, physiquement, intellectuellement et émotionnellement, et hommes et machines cultivent cette différence. D’ailleurs, pour information, Rob Consciento n'est pas un humain,  c'est un robot conscient qui fait partie de l'équipe de recherche du CEA depuis 2054.

  



2 commentaires:

  1. Anonyme6:01 PM

    Suspense accru par ce saut du futur: le comité d'éthique est-il purement humain sain d'uploading et que deviennent les pauvres machines conscientes stoppées dans leurs autonomies?
    C'est le RT117 qui m'intrigue le plus, t'aurais pas un moyen d'y retourner?

    RépondreSupprimer
  2. Extraordinaire. Ayant tardé à lire ce billet resté planqué dans mes flux RSS, j'ai du m'y reprendre avant de comprendre le poisson. Vous feriez un excellent auteur de science fiction, dans la veine d'Asimov peut-être ?

    RépondreSupprimer