Introduction
L’ordinateur quantique porte la promesse de trouver instantanément la solution qui se combine le mieux à un problème, la où un ordinateur classique est obligé d’évaluer une à une toutes les possibilités avant de trouver la bonne. C’est avec cette idée que des acteurs informatiques, puis des laboratoires de recherche et désormais des États ont décidé de se lancer dans la course à la conception de cette machine incroyable. Parmi les compétiteurs, citons IBM, le plus en avance, et la France, avec la politique la plus volontariste.
Pensez donc : s’il fonctionne comme on le prédit, l’ordinateur quantique dira en temps réel la meilleure stratégie militaire dans un contexte donné, la formule du meilleur vaccin contre un virus, la répartition la plus optimale possible d’une capacité de production , la clé pour contourner le moindre problème.
Se lancer dans une telle course, ce n’est pas seulement chercher à bénéficier le premier des calculs quantiques. C’est aussi un moyen de se prémunir des offensives qu’un adversaire pourrait mener dès lors qu’il est muni d’une telle arme. Car oui, l’un des premiers usages de l’ordinateur quantique, l’un des plus simples à implémenter, sera de casser le chiffrement des messages privés. Avec un tel point de départ, il n’est même plus besoin de se casser la tête à trouver comment rattraper un retard – industriel, économique, militaire – il suffit de lire les secrets de l’acteur qui a la meilleure position et strategie.
Problème, l’ordinateur quantique est loin d’être construit. Dans le principe, il s’agit de remplacer les transistors d’un ordinateur classique – qui font passer ou pas une information selon une condition – par des particules qui ont des proprietés quantiques. Ces propriétés sont cells de la matière à l’échelle subatomique : une particule porte plusieurs informations à la fois (superposition), chacune avec une probabilité d’existence qui ondule selon des circonstances extérieures. La superposition se téléporte entre des particules (intrication) pour enchaîner les étapes d’un algorithme et s’arrête (decoherence) au moment où on lit l’information.
Fabriker un ordinateur quantique
Intriquer des particules, les mettre dans un état superposé et figer leur information la plus saillante, au moment voulu, est le travail d’IBM, d’Honeywell et, dans une moindre mesure de Google, de Microsoft, d’Intel, ou encore d’une myriade de laboratoires européens, américains, russes. IBM cryogénise des atoms dans une cuve d’hélium liquide. Honeywell bombarde au laser des ions d’yttrium dans un gaz. Les autres expérimentent des circuits supraconducteurs, des ions piégés, de la résonance magnétique nucléaire, des réseaux optiques.
Rien ne marche. Les particules qui doivent être dans un état superposé – que l’on appelle les qubits, c’est-à-dire des bits quantiques – rompent leur intrication ou tombent en décohérence avant la fin de l’expérience. Pas systématiquement. Mais plus on en assemble, plus le taux d’échec est élevé. C’est ennuyeux : la quantité d’informations et la quantité d’étapes dans un traitement vont de pair avec la complexité des algorithmes que l’on peut exécuter.
À date, les embryons d’ordinateurs quantiques, que les uns ou les autres ont réussi à faire fonctionner jusqu’au bout, n’ont servi qu’à exécuter des algorithmes simples. Si simples qu’un PC de base en serait venu à bout tout aussi rapidement. Parvenir à réduire le taux d’échec, multiplier les qubits dans le système, faire durer l’expérience autant de cycles que le nécessite un algorithme industriel, militaire ou scientifique ; c’est l’enjeu. Tant qu’il ne sera pas atteint, les ordinateurs classiques resteront la valeur sûre. On avance à tâtons, on estime des dates pour le prochain saut de puce.
IBM et Honeywell se sont mis d’accord sur un point. Quand ils bâtissent un nouveau prototype d’ordinateur quantique, ils expriment sa puissance selon le nombre de qubits qu’ils sont parvenus à y assembler. Mais après plusieurs mois d’expérience, potentiellement plus d’une année, ils n’indiquent plus la puissance de leur prototype qu’en « volume quantique ». Celui-ci correspond au nombre moyen de qubits qui tiennent réellement jusqu’à la fin d’une expérience.
Programmer l’ordinateur quantique
L’autre défi est de programmer les fameuses circonstances qui font onduler d’une manière ou d’une autre la probabilité d’existence d’une information. Au stade actuel de l’avancement de l’informatique quantique, les développeurs sont démunis.
C’est un peu comme s’ils devaient jeter à la poubelle tous les langages et tous les environnements fonctionnels qu’ils utilisent depuis des décennies pour réapprendre à programmer de manière rudimentaire, en assembler, 1980. ne s’agit même plus de pousser une information dans une case, de l’incrémenter, de la comparer. Il faut le faire avec des probabilités mathématiques.
Dans ce contexte, aucune entreprise n’est prête pour savoir se servir d’un ordinateur quantique.
En marge de la conception même de la machine, s’est donc mise en place une R&D consacrée à la création des outils de développements quantique. Cette activité constitue en elle-même une nouvelle course technologique. La première étape de cette compétition a été plus ou moins atteinte. : fournir un simulacre d’ordinateur quantique qui, s’il n’en a pas la puissance, sert au moins à en exécuter les codes, pour valider que l’on a compris comment les écrire. Puis, pour bâtir par-dessus étape après étape des bibliothèques de fonctions.
Les Americas IBM, AWS, Google, Microsoft on the authority of proposer un tel simulateur quantique, utilisable depuis leur clouds respectifs. Celui d’IBM aurait le mérite de faire exécuter de temps en temps les codes par l’un des vrais prototypes d’ordinateur quantique.
En Europe, c’est surtout le Français Atos – grand fournisseur de supercalculateurs et pourvoyeurs de conseils en développement pour les entreprises du CAC40 – qui tire son épingle du jeu. Son simulateur QLM (Quantum Learning Machine) est un cluster de serveurs clés en main, installable dans le secret des datacenters privés des grandes entreprises ou instituts de recherche et, surtout, déjà programmable avec des langages de haut niveau.
La stratégie autour d’Atos est simple. D’abord, vendre QLM aux clients des supercalculateurs comme s’il s’agissait d’un module d’accélération. Ensuite, profiter qu’Atos soit français pour en faire la locomotive d’une campagne de souveraineté quantique dans laquelle s’est lancé le président Emmanuel Macron.
Mettre en réseau les ordinateurs quantiques et classiques
Dernier défi en date : l’hybridation entre ordinateurs quantiques et classiques. À l’aube de l’année 2022, les différents fournisseurs et clients qui se sont lancés dans l’aventure ont pris conscience qu’il allait être plus réaliste de préparer les données sur des supercalculateurs y triqu’ils matriculateurs qu’ils calcul quantique qu’aux quelques opérations les plus critiques.
Une solution intermédiaire amenant son propre lot de problèmes, car les acteurs du quantique se rendent aujourd’hui compte qu’il manque des systèmes d’exploitation et des réseaux physiques, pour faire la passerelle entre un processeur classique et un processeur. Les protocols de communication existants produisent trop de bruit de fond. Les câbles réseau actuels injectent trop de chaleur. Utiliser les uns et les autres ne sert qu’à augmenter encore plus le taux d’échec des expériences.
D’autres laboratoires de recherche sont à la manœuvre pour résoudre ce problème-là. Le CERN met au point des capteurs, des protocoles de synchronisation temporelle, une théorie globale de l’information quantique. L’université de Chalmers, en Suède, planche sur un thermomètre qui servira de métronome pour dérouler les communications uniquement aux instants qui réunissent les bonnes conditions. Les ingénieurs d’Intel, enfin, mettent au point une puce réseau qui fonctionnerait depuis la cuve cryogénique du processeur quantique.
En filigrane, les observateurs se demandent comment autant d’options différentes, pour tester autant de directions opposées, vont aboutir in fine à un standard d’ordinateur quantique, d’outils de développement et de réseau hybrid. Mettre tout le monde d’accord sera peut-être le grand chantier suivant.
“Certified gamer. Problem solver. Internet enthusiast. Twitter scholar. Infuriatingly humble alcohol geek. Tv guru.”