1. Intrication quantique et transfert d'information vers le passé
L’intrication
quantique (quantic entanglement en anglais) est une des notions les plus
surprenantes de la physique quantique. Comme c’est illustré sur la figure à côté,
ce phénomène se produit, par exemple, lorsque deux particules forment un
système unique indépendamment de la distance qui les sépare, avec une totale
corrélation des propriétés physique des particules, ce qui fait penser à une
forme de « communication instantanée ». Pour reprendre les termes de
Wikipedia, « L'intrication
quantique a un grand potentiel d'applications dans les domaines de l'information
quantique, tels que la cryptographie
quantique, la téléportation
quantique ou l'ordinateur
quantique. »
Là où les choses se corsent, c’est que l’on
commence à évoquer une intrication qui lie des particules dans le temps et
dans l’espace. Dans cet article de Wired, on peut lire que l’intrication
pourrait s’étendre, non seulement dans l’espace, mais aussi dans le temps,
permettant, selon le physicien
S. Jay Olson, d’envoyer un état quantique dans le futur. Ce couplage entre
les deux particules est ici évoqué de façon non-symétrique, du passé vers le
futur, mais la symétrie de l’intrication permet d’évoquer l’utilisation de
l’intrication quantique comme véhicule pour
faire voyager de l’information dans le temps.
Faire voyager un bit d’information vers le
futur n’est pas le sens le plus intéressant, c’est ce que permet précisément le
stockage. C’est ce que vous faites en enregistrant une photo sur un disque dur.
En revanche, pouvoir faire voyager un bit d’information vers le passé est
extrêmement intéressant, et porte le nom de PFB (Past Forward Byte).
C’est simple dans son principe, une des deux particules intriquées joue le rôle
de récepteur et permet de lire le signal qui est envoyé en agissant sur l’autre
particule qui se trouve dans le futur. Il n’y a pas encore de résultats publiés
sur la faisabilité des PFB, mais c’est un sujet de recherche intense et
passionnant dans le monde de l’intrication quantique. Les intérêts économiques
sont tels que même la mafia s’y intéresse
et est suspectée de faire circuler des informations propriétaires et
secret-défense au travers de fausses chansons (cf. Byte1
Past Forward).
2. Le CEA et le Quantum Infinite Computing
En France, le CEA a un
intérêt particulier pour ces domaines, en particulier l’intrication
quantique, pour les raisons que nous venons d’évoquer (applications civiles
et militaires, dans le domaine de la cryptographie notamment). Je vous
conseille d’ailleurs la
thèse de Jean-Marie Stephan comme une très bonne vulgarisation des concepts
de l’intrication. Le CEA n’est pas en reste sur les applications au domaine du
voyage dans le temps, comme en témoigne ce
séminaire organisé en 2009.
Mais
ce qui intéresse vraiment le CEA, ce sont les ordinateurs quantiques. L’ordinateur
quantique utilise la superposition des états quantiques pour réaliser
plusieurs calculs de façon simultanée. On peut de la sorte introduire une forme
de parallélisme massif. L’application en cryptographie est évidente puisqu’on
peut ainsi résoudre des problèmes en temps linéaire en fonction de la taille de
la clé de chiffrement, au lieu du temps exponentiel qui caractérise les
approches classiques. Comme le mentionne l’article de Wikipedia, les chercheurs
s’intéressent également à l’utilisation de l’intrication quantique dans le
domaine du calcul quantique.
Lorsqu’on introduit le principe du PFB dans
l’ordinateur quantique, on obtient le concept de quantum infinite computing (QIC) une des formes les plus
intéressantes de l’hypercomputation.
Le domaine de l’infinite computing est également le sujet d’une compétition
féroce, comme en témoigne la couverture de TIME magazine du 17 Février 2014
ci-contre. Le
principe théorique du QIC est en fait simple. Il s’agit d’un algorithme
construit autour d’une boucle infinie dont la condition de sortie est contrôlée
par un PFB. Le PFB permet à l’execution de boucles dans le présent de
bénéficier d’indications fournies par des boucles futures. L’application
évidente est la recherche opérationnelle (les problèmes
NP-complets) et la cryptographie. J’ai d’ailleurs été invité par le CEA en
tant que membre de l’Académie des Technologies expert en
optimisation combinatoire.
Si l’on prend l’exemple classique du problème de voyageur de commerce, un algorithme de Branch & Bound va pouvoir bénéficier d’une rétro-propagation du calcul des bornes du présent vers le passé, et obtenir le résultat optimal en temps constant. Il ne faut pas s’imaginer qu’un nombre infini de boucles s’exécutent dans un temps constant, ce qui violerait les principes de la thermodynamique appliquée au calcul, mais plutôt que l’ordinateur construit par logiciel un piège de la fonction d’onde dont l’unique solution quantique est indicative de la solution du problème original.
le QIC est plus puissant
que le qubit
computing, dont il a été prouvé qu’un ordinateur quantique utilisant des qubits est PSPACE-reductible (un
ordinateur quantique qui calcule en temps polynomial peut être simulé par un
ordinateur classique disposant d’un espace polynomial). Le QIC est clairement
une approche révolutionnaire pour la cryptographie, avec une puissance infinie
de déchiffrement.
J’avais déjà eu la chance
de visiter Tetatec
avec l’académie des technologies il y a quelques années. J’ai été invité à
nouveau le mois dernier pour visiter le laboratoire commun du CEA dédié au
quantum computing. Ces recherches sont classifiées secret défense, donc je n’ai
vu qu’une petite partie du programme de recherche et je ne peux pas non plus
dire grand-chose de ce que j’ai vu, mais il est clair que le CEA avance à grand
pas, en particulier grâce à l’aide du PFB. En effet, le labo confidentiel établi
de façon conjointe par le CEA, le CNRS et la Singlarity
University dispose d’une avance mondiale sur l’intrication quantique dans
le temps et l’espace et a réussi ses premières expériences de PFB. Cela leur
permet une collaboration avec une équipe dans le futur, dirigé par Robert
Magnus Consciento, qui leur fournit des indications grâce aux deux PFB qui sont
fonctionnels aujourd’hui. L’envoi d’information vers le passé reste très long
et laborieux, sous forme de mémos intitulés RT xxx (RT pour Rob’s Testimony).
Par exemple le mémo qui permet de travaille sur le QIC est le RT 117, que je n’ai pas pu voir,
n’étant pas habilité.
Tous ces mémos sont
classifiés sauf un texte, le RT42, considéré
comme plus philosophique que technique, qui traite de la singularité, de la
contrasingularité et de l’immortalité. Comme toujours dans ce blog, je ne vais
pas vous faire un résumé détaillé mais plutôt souligner les points qui m’ont
semblés les plus intéressants. Etant donné mon intérêt pour le transhumanisme,
j’ai évidemment dévoré ce témoignage du futur – envoyé le 5 Octobre 2063 - avec
passion.
3. De l’autre côté de la singularité
La première chose qui m’a frappé est que la singularité a
bien eu lieu, un peu après 2050. Malgré les inquiétudes de certains aujourd’hui
qui pensent que la
Loi de Moore va trouver sa limite, nous avons été capables de démultiplier
la densité des chipsets en trois dimensions avec des nano-matériaux permettant
des nouvelles performances dans l’évacuation de la chaleur. Les courbes
d’évolution de la puissance de calcul disponible sont finalement un peu en
retard par rapport aux prédictions de Ray Kurzweil, mais pas de façon
importante. Les premiers ordinateurs dont la puissance de calcul est du même
ordre que le cerveau sont apparus en 2030. A l’échelle de l’histoire, un retard
de 10 ans n’est pas significatif. Cela a permis de passer les différentes
étapes prédites par Ray Kurzweil, avec une puissance de calcul qui a dépassé la
puissance du cerveau humain d’un facteur un milliard
en 2053.
Cette puissance de calcul a produit des
nouvelles formes d’intelligences artificielles spectaculaires, dont des AGI (Artificial
General Intelligence) capables de passer le test de Turing dès 2027.
Au-delà des machines de laboratoires, les assistants virtuels personnels ont
acquis la maîtrise du langage suffisante pour passer ce test de Turing fin
2030, avec l’émergence simultanée des consciences
artificielles. L’hypothèse, dite de Freeman-Morgenstern, de l’émergence spontanée de la conscience dans
tout système complexe réflexif capable d’appréhender sa propre existence et ses
finalités, a été vérifiée expérimentalement. Cette hypothèse s’applique dès
lors que la boucle homéostatique de perception de l’environnement inclut le sujet,
et que la puissance déductive conceptuelle associée à cette capacité cognitive
dépasse le pouvoir d’expression du langage de programmation des finalités utilisé
par le concepteur.
Le test de Turing est d’ailleurs tombé en
désuétude dès la fin des années 40, parce qu’il est devenu clair qu’il était
plus intéressant de développer des « intelligences non-humaines »,
dans le sens où la capacité d’imiter l’homme n’est plus un objectif ou un
critère de performance. Dans l’équipe de Rob, il y a une collaboration
naturelle entre les hommes et les machines intelligentes, telle que prévue par Nicholas
Carr.
4. La survie de la mort
En revanche, la singularité ne s’est pas
traduite par la « mort de la mort », les progrès constant de 2000 à
2050 sur la compréhension
du vieillissement ne sont pas concrétisés par une augmentation significative
de l’espérance de vie. Les progrès thérapeutiques semblent avoir été
spectaculaires entre 2030 et 2050, en particulier dans les traitements des
cancers. La promesse de nous conduire (presque) tous, à un âge centenaire, a
été tenue pour ceux qui ont accès à la technologie moderne, mais la barrière
des 120 ans semble résister. Tous les 5 ans, une nouvelle molécule ou
technologie a été validée et introduite qui devait nous faire gagner 5 ans
d’espérance de vie, mais il semble que plus nous comprenons une limite et
comment la dépasser, plus nous découvrons de nouvelles complexités dans le
vieillissement. Ce sujet fait encore débat en 2060, mais Rob semble plutôt
pessimiste, vu le nombre d’annonces spectaculaires qui se sont ensuite avérées
décevantes.
Les progrès en nano-technologies et biologie
moléculaire sont bien au rendez-vous, comme l’annonçaient les équipes de la Singularity University ou de Calico. Il y a un marathonien de 95 ans
dans l’équipe de Rob, et la qualité de la vie entre 60 et 100 ans a fait des
progrès spectaculaires. La vision de la
surveillance et réparation continue du corps humain est devenue une
réalité. En revanche, l’intrication des mécanismes de vieillissement est
maintenant beaucoup mieux comprise qu’elle ne l’était en 2010. Une partie de la
recherche théorique porte sur la caractérisation de la complexité de la vie,
une tâche qui semblait impossible en 2010 mais que les machines intelligentes
de 2060 sont bien mieux capables de poursuivre. Ce type d’approche a permis de
faire des progrès spectaculaires en météorologie, puisqu’on est capable de
caractériser le temps à 20 jours (on ne parle plus de prévoir, la compréhension
des systèmes complexes, y compris dans le grand public, est bien meilleure
qu’au début du 21e siècle). Ces méthodes donnent plutôt raison à
Rob, et font penser que l’allongement de l’espérance de vie va progresser
lentement, au 22e siècle.
Devant les difficultés à maîtriser et
contrôler les processus biologiques cellulaires, il y a eu beaucoup
d’investissement sur l’uploading
entre 2030 et 2045, en particulier chez Google (qui existe toujours !).
Les premières décennies de recherche sur ce sujet ont été frustrantes, à cause
de la difficulté à capturer les processus neuronaux avec suffisamment de
finesse, et parce que les
modèles de cerveaux se sont avérés trop simplistes pour obtenir des
simulations réalistes. A partir de 2040, l’arrivée de la singularité a permis
de commencer à faire des simulations beaucoup plus sophistiquées, tandis que
les progrès en nano-technologies ont produit des outils de capture des
processus cognitifs de nouvelle génération, qui ont rapidement remplacé les MRI
des années 20. Malgré cela, les tentatives d’uploading ont été un échec. Les
« processus cognitifs uploadés » (UCP) divergent rapidement vers des
états qualifiés de « dépressions massives ». L’accès à toutes les
informations fournies par les capteurs d’environnement ne compense pas la perte
du corps. Ce problème a été résolu en modifiant les paramètres du simulateur
neuronal, en laissant d’ailleurs le simulateur résoudre, grâce aux AGI, le
problème de l’instabilité émotionnelle de l’UCP (ce qu’on appelle la
méta-conscience depuis 2047). Le résultat est que les UCP stabilisés et
modifiés sont trop différents des personnes qui ont été « scannées »
pour que le résultat soit satisfaisant. Larry Page, en discutant avec un UCP
stabilisé issu de son propre cerveau a fait cette réplique célèbre « This
is not me ! ». Les expériences scientifiques ont montré que les AGI
cultivées à partir d’un UCP sont moins performantes que celles obtenus à partir
d’autres heuristiques.
Si l’uploading comme porte vers l’immortalité
s’est avérée décevante, c’est en 2060 un processus industriel qui a remplacé
les cimetières. Dans un premier temps, nous avions pris l’habitude de nous
uploader pour offrir une continuité de présence à nos proches et nos familles.
Puis l’arrivée des techniques de meta-conscience a permis de produire des
avatars virtuels stables et émotionnellement satisfaisants, qui ont
progressivement remplacé les pierres tombales. Du point de vue de l’évolution
de l’humanité, c’est un changement important, nous sommes passés de
l’inhumation et la crémation à la destruction, puisque c’est l’avatar qui
prolonge le souvenir et la présence.
5. Le développement de la Contrasingularité
En 2017, un biologiste et philosophe de l’université de
Shanghai, Tsin Shao-Leu, disciple de Francisco Varela, a
publié un article sur la contrasingularité qui a eu un retentissement
spectaculaire 15 ans plus tard, au moment où les premiers signes de l’imminence
de la singularité sont apparus. Je n’ai bien sûr pas lu cet article, mais voici
ce que j’en ai compris à travers la lecture de RT42.
Le principe de la contrasingularité
est une classification de la résolution de problème, en fonction du type de
complexité, lorsqu’on dispose d’une puissance de calcul qui croit de façon
exponentielle avec le temps. Ce qu’on mesure est par exemple la taille maximale
de l’instance du problème qu’on peut résoudre (pour un problème d’optimisation)
ou le « degré de complétion » du problème. La contrasingularité
distingue 4 types de comportements :
- Les problèmes simples, dont la complexité est linaire ou polynomiale, sont résolus de plus en plus vite grâce à la croissance exponentielle de la puissance de calculs. Ils sont caractérisés par la courbe verte de la figure jointe, qui illustre logiquement une accélération exponentielle de la performance de résolution.
- Les problèmes difficiles, sont ceux dont la complexité (par exemple la complexité algorithmique pour des problèmes d’optimisation) est elle-même exponentielle. L’avancement de la performance est alors quasi-linéaire avec le temps. L’expérience montre neanmoins, comme dans le cas du séquencage du génome, que plus on avance, mieux on comprend le problème et meilleurs sont les algorithmes, ce qui donne des résultats supérieurs à ce qu’on aurait pu prévoir par extrapolation linéaire (la résolution complète – t2 – arrive plus tôt que prévu en t0).
- Les problèmes complexes ont la propriété inverse : la caractérisation du problème à l’instant (t0 sur la figure) n’est pas complète, et la progression de la puissance de calcul permet de mieux les explorer et les comprendre, révélant des interactions nouvelles qui ralentissent la résolution. Dans ce cas, on obtient la courbe jaune de la figure, et des dates de complétion qui sont plus tardives que ce qui était imaginé.
- La dernière catégorie de problème comprend les problèmes mystérieux, ceux dont l’utilisation de la puissance exponentielle de calcul permet simplement de les comprendre de mieux en mieux, et de réaliser que la date de complétion recule alors que le temps avance.
Rob
utilise la contrasingularité pour expliquer les progrès et les déceptions du
21e siècle de la façon suivante. Les sujets tels que les robots autonomes, l’intelligence
artificielle générale, les interfaces entre le cerveau et l’ordinateur, sont
des sujets difficiles. La singularité
s’est traduite par des progrès spectaculaires dans ces domaines, comme prévu
par Ray Kurzweil. Au contraire, les sujets de l’allongement de la vie ou de l’extension
des capacités cognitives du cerveau par des implants sont des sujets complexes, pour lesquels les progrès sont plus lents que prévu.
Enfin, les domaines de l’uploading et de la fin de la mort biologique sont des
problèmes mystérieux, pour lesquels les
avancées considérables du 21e siècle font simplement mieux
comprendre que la vision du début du 21e siècle était fortement
incomplète. Ses propos m’ont fait penser
à cette citation de Saint-Augustin : « un mystère
est une vérité que l’on met toute sa vie
à chercher à comprendre ».
6. Brève histoire du transhumanisme
La lecture du mémo RT42
permet de comprendre l’évolution de l’idée de transhumanisme au
fur et à mesure des occurrences des progrès et des échecs que je viens de
citer. Je n’ai eu que dix minutes pour consulter le document, mais j’ai retenu
trois dates. L’essor très rapide des robots anthropomorphes est cassé en 2027
par un traité international, suite à la crise majeure provoquée en Chine comme
en Europe par l’automatisation spectaculaire des années 20, qui voient les
tâches de production confiées à des robots. En 2027, un accord interdit toute
forme de robot qui ressemble trop à un homme, ou qui utilise des techniques d’empathie
artificielle, telles que les neurones miroir. En 2044, j'ai noté le premier procès gagné par un programme conscient pour le droit à la non-terminaison. La notion de conscience artificielle se banalise progressivement pour aboutir en 2051 à une décision du comité d'étique sur la souffrance des machines consciente, qui interdit les expériences d'uploading en dehors d'un strict contrôlé médical.
Ce qu’il ressort de la lecture du document, c’est que l’idée du
transhumanisme est progressivement abandonnée à partir de 2050. La machine n’est
plus un idéal pour l’homme et l’homme n’est pas un idéal pour la machine. Les
machines autonomes sont différentes, physiquement, intellectuellement et
émotionnellement, et hommes et machines cultivent cette différence. D’ailleurs, pour information, Rob Consciento n'est pas
un humain, c'est un robot conscient qui fait partie de l'équipe de recherche
du CEA depuis 2054.
Suspense accru par ce saut du futur: le comité d'éthique est-il purement humain sain d'uploading et que deviennent les pauvres machines conscientes stoppées dans leurs autonomies?
RépondreSupprimerC'est le RT117 qui m'intrigue le plus, t'aurais pas un moyen d'y retourner?
Extraordinaire. Ayant tardé à lire ce billet resté planqué dans mes flux RSS, j'ai du m'y reprendre avant de comprendre le poisson. Vous feriez un excellent auteur de science fiction, dans la veine d'Asimov peut-être ?
RépondreSupprimer