VERS LA SUPRÉMATIE QUANTIQUE
Natura non facit saltus: cette idée énoncée par Aristote, érigée en principe de continuité, fut l’un des piliers de la philosophie des sciences, suggérant que, dans la nature, les choses changent toujours progressivement. Elevée au rang d'axiome par Leibniz et par Newton, elle a été réduite à néant au début du XXème siècle avec l’avènement du quantique.
En 1900, Max Planck découvre la loi spectrale du rayonnement d'un corps noir, en essayant d’accorder à l’expérience les modèles existants (lois de Rayleigh - Jeans et de Wien). Toutes les tentatives de modélisation jusqu’à ce jour divergeaient en catastrophe ultra-violette. Il introduisit alors ce qui n’était pour lui qu’une astuce de calcul, la quantification de l’énergie. Il invente de fait le vocable « quantique » et la constante qui porte son nom (qui relie le quanta d’énergie à la fréquence).
Mais c’est cinq ans plus tard qu’Einstein franchit un pas supplémentaire, un pas de géant, en introduisant la dualité entre corpus- cule et onde (avec le photon, grain de lumière). Il permit la compréhension du monde subatomique, initiant la première révolution quantique. Elle a amené des innovations majeures comme le transistor, le laser, les horloges GPS, les fibres optiques, à la base de l’industrie des semi-conducteurs et des technologies du numérique.
L’exemple le plus frappant de l’étrangeté quantique reste l’expérience de Young, des deux fentes que l’on bombarde d’un flux d’électrons, mais seulement un électron après l’autre, détecté ensuite sur un écran. Se forment alors au fur et à mesure des impacts individuels des franges d’interférence comme pour une onde (voir illustration). Cela signifie que l’électron interfère avec lui-même lors du passage dans les deux fentes. L’état de l’électron est en fait une superposition quantique de l’état où il passe par la première fente et de l’état où il passe dans la deuxième fente. Ces deux états sont mélangés et restent indiscernables. L’électron solitaire est passé en quelque sorte dans les deux fentes à la fois.
C’est précisément grâce à la superposition quantique que fonctionne un ordinateur quantique. On définit un qubit (quantum bit) comme une propriété physique à deux états d’un objet subatomique, que l’on définit comme 0 et 1 : par exemple le niveau d’énergie (repos ou excité) ou le spin (up ou down). Pour conférer un avantage sur un ordinateur classique, il faut utiliser une seconde propriété fondamentale qui est l’intrication quantique : lorsque n qubits sont intriqués, ils ne forment plus qu’un seul objet possédant 2n états possibles (de 00000...0 à 11111...1). C’est la source de l’accélération quantique exponentielle, car les algorithmes travaillent en classique sur un seul état de n bits, et en quantique sur 2n états en même temps.
Le calcul quantique vise à procurer des accélérations les plus importantes possibles à partir de qubits intriqués, de manière à conférer ce que l’on appelle la suprématie quantique. Les avancées mathématiques dans le domaine des algorithmes quantiques sont étourdissantes. Ainsi, l’algorithme quantique de Peter Shor factorise un produit de deux nombres premiers en un temps polynomial, alors que l’on a avec le meilleur algorithme de factorisation classique (GNFS) un temps exponentiel. Or, les algorithmes cryptologiques asymétriques sont basés sur des fonctions trappe, faciles à calculer dans un sens et très difficiles dans l’autre. La découverte de Shor permet en théorie de décrypter la plupart des algorithmes asymétriques, dont le RSA, utilisés actuellement pour sécuriser internet. Cette découverte en 1995 a lancé la course au calculateur quantique, suscitant l’intérêt des services de sécurité. On sait grâce à Snowden que la NSA a lancé vers 2013 un programme de décryptement quantique de 80 M$.
Mais la sécurité n’est pas la seule raison de l’intérêt pour le quantique. L’industrie et la recherche veulent toujours plus de puissance de calcul (simulation, big data, intelligence artificielle...): ils se sont habitués à la loi de Moore qui voit la puissance doubler tous les 18 mois. Or cela va s’arrêter car la technologie ne peut plus suivre : la finesse de gravure des puces est aujourd’hui entre 5 et 10 nm au mieux. La maille cristalline du silicium fait 0,5 nm. On arrive donc aux dimensions atomiques. Atos/Bull livrera son ordinateur exaflopique Sequana (un milliard de milliards d’opérations par seconde) après 2020. Pour la génération suivante, il faut trouver de nouvelles architectures. Les technologies quantiques peuvent fournir la réponse: on a démontré la possibilité d’accélération sur des algorithmes de machine learning, d’optimisation, de simulation financière, ou plus généralement pour traiter des problèmes d’explosion combinatoire.
Les implémentations physiques ne progressent pas aussi vite que les applications; elles se heurtent à des difficultés fondamentales de décohérence qui limitent le nombre de qubits intriqués et qui dégradent la durée de l’intrication. Mais la course est lancée et mobilise de nombreux laboratoires de recherche y compris en France : ions piégés, qubits optiques, circuits supraconducteurs, qubits semiconducteurs, nanostructures à points, ou qubits topologiques. Qui sera le gagnant ? Une technologie inconnue aujourd’hui ?
De grandes entreprises nord-amé- ricaines ont massivement investi dans le calcul quantique : IBM, Intel, Google, Microsoft et Dwave. En Europe, seul Atos a lancé sur fonds propres un programme sur le calcul : c’était logique et obligatoire pour le leader européen des supercalculateurs. D’autres entreprises françaises comme Thales ou μQuans exploitent la physique quantique pour développer des senseurs toujours plus performants.
Le Projet Quantique d’Atos couvre deux axes. Le premier, à court terme, vise à fournir une plateforme de programmation quantique et d’émulation d’algorithmes jusqu’à 40 qubits. La Quantum Learning Machine (QLM, voir illustration) a été développée en 18 mois et livrée aux premiers clients fin 2017 (dont le renommé centre de recherches américain d’Oak Ridge). Elle permet d’apprendre la programmation quantique et accélère le développement d’algorithmes en permettant de les tester et optimiser par simulation en quasi temps-réel.
A plus long terme, Atos met en place une veille active et des partenariats technologiques pour préparer l’après-Sequana et fournir des architectures hybrides mêlant FPGA, GPU et capacités quantiques. On ne développera pas seul des processeurs quantiques, mais en partenariat. Il y aura en- suite beaucoup à faire pour les intégrer dans les futurs ordinateurs hybrides, gérer la mémoire et les bus, et mettre en place l’interface de programmation et le lien avec les applications.
Où en est-on aujourd’hui sur le plan physique ? Un système à 5 qubits supraconducteurs fonc- tionne chez IBM, mis à disposition des développeurs via le web ; l’université d’Innsbruck a démontré l’intrication d’un système 14 qubits à base d’ions piégés. Au CES de Las Vegas, IBM et Intel ont montré des circuits quantiques à 50 et 49 qubits respectivement, mais qui doivent maintenant être évalués et testés. Nous entrons dans une nouvelle ère, l’ère NISQ (Noisy Intermediate-Scale Quantum) comme le décrit John Preskill du CalTech : ordinateur quantique bruité de taille intermédiaire, avec la mise à disposition de systèmes de 50 à 100 qubits bruités.
On entre dans la suprématie quantique, car on ne sait pas émuler classiquement 50 à 100 qubits (même la QLM s’arrête à 40 qu- bits). Certaines applications fonctionnent déjà avec ce faible nombre de qubits : chimie quantique (simulation d’orbitales électroniques de grosses molécules par exemple) ou modélisation de la matière condensée (étude du paramagnétisme par exemple). L’industrie pharmaceutique pourrait être la première bénéficiaire de la seconde révolution quantique : les finances, la cybersécurité ou l’intelligence artificielle devront attendre beaucoup plus longtemps que soient disponibles des systèmes à 1 000 qubits logiques (c’est-à-dire corrigés de l’effet de décohérence).
Nous avons la chance de voir une disruption technologique majeure naître et se développer sous nos yeux. La France et l’Europe doivent s’en saisir pour peser au plan mondial dans cette nouvelle industrie de souveraineté. Il faut pour cela que la recherche, l’Industrie du quantique et l’industrie côté utilisateurs travaillent main dans la main avec le soutien de l’Etat.
Aucun commentaire
Vous devez être connecté pour laisser un commentaire. Connectez-vous.