Une nouvelle étape pour l’informatique [Final] : Le Quantique

Xavier Vasques
25 min readNov 13, 2021
Photo by Annamária Borsos

Retrouvez le premier chapitre et le deuxième parlant respectivement des systèmes binaires et biologiques.

Pour le dernier article de cette série, n’hésitez pas à télécharger le document complet dans sa version française et anglaise.

Les lois de la physique nous aident aussi à imaginer les ordinateurs de demain. Par exemple, dans un article publié dans Nature, les physiciens et ingénieurs d’IBM ont décrit comment ils ont réussi l’exploit d’écrire et de lire des données dans un atome d’holmium. C’est un pas en avant symbolique mais qui prouve que cette approche fonctionne et que nous pourrions un jour avoir un stockage de données atomique. Pour faire un parallèle pour montre ce que cela signifie, imaginez que nous puissions stocker toute la bibliothèque iTunes de 35 millions de chansons sur un appareil de la taille d’une carte de crédit. Dans l’article, les nanoscientifiques ont démontré la capacité de lire et d’écrire un bit de données sur un atome. À titre de comparaison, les disques durs d’aujourd’hui utilisent 100 000 à un million d’atomes pour stocker un seul bit d’information. Bien sûr, nous ne pouvons pas éviter la discussion autour de l’informatique quantique. Les bits quantiques — ou qubits — combinent la physique avec l’information et sont les unités de base d’un ordinateur quantique. Les ordinateurs quantiques utilisent des qubits dans un modèle de calcul basé sur les lois de la physique quantique. Des algorithmes quantiques convenablement conçus sont capables de résoudre des problèmes de grande complexité en exploitant la superposition quantique et l’intrication pour accéder à un espace d’état exponentiel, puis en amplifiant la probabilité de calculer la bonne réponse par une interférence constructive. C’est à partir du début des années 1980, sous l’impulsion du physicien et prix Nobel Richard Feynman que germe l’idée de la conception et du développement d’ordinateurs quantiques : Là où un ordinateur « classique » fonctionne avec des bits de valeurs 0 ou 1, l’ordinateur quantique utilise les propriétés fondamentales de la physique quantique et repose sur des « quantum bits (qubits) ». Au-delà de ce progrès technologique, l’informatique quantique ouvre la voie au traitement de tâches informatiques dont la complexité est hors de portée de nos ordinateurs actuels. Mais reprenons depuis le début.

Au début du XXe siècle, les théories de la physique dite « classique » sont dans l’impossibilité d’expliquer certains problèmes observés par les physiciens. Elles doivent donc être reformulées et enrichies. Sous l’impulsion des scientifiques, elle va évoluer dans un premier temps vers une « nouvelle mécanique » qui deviendra « mécanique ondulatoire » et finalement « mécanique quantique ». La mécanique quantique est la théorie mathématique et physique qui décrit la structure fondamentale de la matière et l’évolution dans le temps et dans l’espace des phénomènes de l’infiniment petit. Une notion essentielle de la mécanique quantique est la dualité « onde corpuscule ». Jusqu’aux années 1890, les physiciens considèrent que le monde est composé par deux types d’objets ou de particules : d’une part celles qui ont une masse (comme les électrons, les protons, les neutrons, les atomes …), et d’autre part celles qui n’en ont pas (comme les photons, les ondes …). Pour les physiciens de l’époque, ces particules sont régies par les lois de la mécanique newtonienne pour celles qui ont une masse et par les lois de l’Électromagnétisme pour les ondes. Nous disposions donc de deux théories de la « Physique » pour décrire deux types d’objets différents. La mécanique quantique invalide cette dichotomie et introduit l’idée fondamentale de la dualité onde corpuscule. Les particules de matière ou les ondes doivent être traitées par les mêmes lois de la physique. C’est l’avènement de la mécanique ondulatoire qui deviendra quelques années plus tard la mécanique quantique. De grands noms sont associés au développement de la mécanique quantique comme Niels Bohr, Paul Dirac, Albert Einstein, Werner Heisenberg, Max Planck, Erwin Schrödinger et bien d’autres. Max Planck et Albert Einstein, en s’intéressant au rayonnement émis par un corps chauffé et à l’effet photoélectrique, furent les premiers à comprendre que les échanges d’énergie lumineuse ne pouvaient se faire que par « paquet ». D’ailleurs, Albert Einstein obtient le prix Nobel de physique suite à la publication de sa théorie sur l’aspect quantifié des échanges d’énergie en 1921. Niels Bohr étendit les postulats quantiques de Planck et d’Einstein de la lumière à la matière, en proposant un modèle reproduisant le spectre de l’atome d’hydrogène. Il obtient le prix Nobel de physique en 1922, en définissant un modèle de l’atome qui dicte le comportement des quanta de lumière. En passant d’un palier d’énergie à un autre inférieur, l’électron échange un quantum d’énergie. Pas à pas, des règles furent trouvées pour calculer les propriétés des atomes, des molécules et de leurs interactions avec la lumière.

De 1925 à 1927, toute une série de travaux de plusieurs physiciens et mathématiciens donna corps à deux théories générales applicables à ces problèmes :

  • La mécanique ondulatoire de Louis de Broglie et surtout de Erwin Schrödinger ;
  • La mécanique matricielle de Werner Heisenberg, Max Born et Pascual Jordan.

Ces deux mécaniques furent unifiées par Erwin Schrödinger du point de vue physique, et par John von Neumann du point de vue mathématique. Enfin, Paul Dirac formula la synthèse ou plutôt la généralisation complète de ces deux mécaniques, que l’on nomme aujourd’hui la mécanique quantique. L’équation fondamentale de la mécanique quantique est l’équation de Schrödinger.

L’informatique quantique a débuté lors d’une petite conférence, désormais célèbre, en 1981, organisée conjointement par IBM et le MIT, sur la physique de l’informatique. Le physicien lauréat du prix Nobel Richard Feynman a mis au défi les informaticiens d’inventer un nouveau type d’ordinateur basé sur des principes quantiques, afin de mieux simuler et prédire le comportement de la matière réelle (24): “Je ne suis pas satisfait de toutes les analyses qui vont avec juste la théorie classique, parce que la nature n’est pas classique, bon sang, et si vous voulez faire une simulation de la nature, vous feriez mieux de la faire avec la mécanique quantique…”

La matière, a expliqué Feynman, est constituée de particules telles que des électrons et des protons qui obéissent aux mêmes lois quantiques qui régiraient le fonctionnement de ce nouvel ordinateur. Depuis, les scientifiques se sont attaqués au double défi de Feynman : comprendre les capacités d’un ordinateur quantique et trouver comment en construire un. Les ordinateurs quantiques seront très différents des ordinateurs d’aujourd’hui, non seulement en ce à quoi ils ressemblent et en quoi ils sont faits, mais, plus important encore, dans ce qu’ils peuvent faire. Nous pouvons également citer une phrase célèbre de Rolf Landauer, un physicien qui a travaillé chez IBM : « L’information est physique ». Les ordinateurs sont bien sûr des machines physiques. Il faut donc tenir compte des coûts énergétiques engendrés par des calculs, l’enregistrement et la lecture des bits d’information ainsi que des dissipations d’énergie sous forme de chaleur. Dans un contexte où les liens entre thermodynamique et information étaient, l’objet de bien des interrogations, Rolf Landauer, a cherché à déterminer la quantité minimale d’énergie nécessaire pour manipuler un unique bit d’information dans un système physique donné. Il y aurait donc une limite, aujourd’hui appelée limite de Landauer et découvert en 1961, qui définit que tout système informatique est obligé de dissiper un minimum de chaleur et donc consommer un minimum d’électricité. Ces recherches sont fondamentales, car elles montrent que tout système informatique dispose d’un seuil thermique et électrique minimum que l’on ne pourra pas dépasser. Cela signifiera que l’on arrivera à la consommation minimum d’une puce informatique et qu’elle ne pourra pas dégager moins d’énergie. Ce n’est pas pour tout de suite, mais les scientifiques expliquent que cette limite sera surtout présente lors de la conception de puces quantiques. Les travaux récents de Charles Henry Bennett chez IBM ont consisté en un réexamen des bases physiques de l’information et l’application de la physique quantique aux problèmes des flux d’informations. Ses travaux ont joué un rôle majeur dans le développement d’une interconnexion entre la physique et l’information.

Source : https://research.ibm.com/blog/qc40-physics-computation

Pour un ordinateur quantique le qubit est l’entité de base, représentant, à l’instar du « bit » la plus petite entité permettant de manipuler de l’information. Il possède deux propriétés fondamentales de la mécanique quantique : superposition & intrication. Un objet quantique (à l’échelle microscopique) peut exister dans une infinité d’états (tant qu’on ne mesure pas cet état). Un qubit peut donc exister dans n’importe quel état entre 0 et 1. Les qubits peuvent prendre à la fois la valeur 0 et la valeur 1, ou plutôt « une certaine quantité de 0 et une certaine quantité de 1 », comme une combinaison linéaire de deux états notés |0> et |1>, avec les coefficients 𝛂 et 𝛃. Donc là où un bit classique ne décrit « que » 2 états (0 ou 1), le qubit peut en représenter une « infinité ». C’est un des avantages potentiels du calcul quantique du point de vue de la théorie de l’information. On peut se faire une idée de la superposition d’états en utilisant l’analogie du ticket de loterie : un ticket de loterie est soit gagnant, soit perdant une fois que l’on connaît le résultat du jeu. Par contre, avant le tirage, ce ticket n’était ni gagnant ni perdant. Il avait simplement une certaine probabilité d’être gagnant et une certaine probabilité d’être perdant, il était en quelque sorte gagnant et perdant à la fois. Dans le monde quantique, toutes les caractéristiques des particules peuvent être sujettes à cette indétermination : par exemple, la position d’une particule est incertaine. Avant la mesure, la particule n’est ni au point A, ni au point B. Elle a une certaine probabilité d’être au point A et une certaine probabilité d’être au point B. Cependant, après la mesure, l’état de la particule est bien défini : elle est au point A ou au point B.

L’intrication est une autre propriété étonnante de la physique quantique. Lorsque l’on considère un système composé de plusieurs qubits, il peut leur arriver de « lier leur destin » c’est-à-dire de ne pas être indépendants l’un de l’autre même s’ils sont séparés dans l’espace (alors que les bits « classiques » sont complètement indépendants les uns des autres). C’est ce que l’on appelle l’intrication quantique. Si l’on considère un système de deux qubits intriqués alors la mesure de l’état d’un de ces deux qubits nous donne une indication immédiate sur le résultat d’une observation sur l’autre qubit.

Pour illustrer naïvement cette propriété on peut là aussi utiliser une analogie : imaginons deux ampoules, chacune dans deux maisons différentes. En les intriquant, il devient possible de connaître l’état d’une ampoule (allumée ou éteinte) en observant simplement la seconde, car les deux seraient liées, intriquées. Et cela, immédiatement et même si les maisons sont très éloignées l’une de l’autre.

Ce phénomène d’intrication permet de décrire des corrélations entre les qubits. Si on augmente le nombre de qubits, le nombre de ces corrélations augmente exponentiellement : pour N qubits il y a 2^n corrélations. C’est cette propriété qui confère à l’ordinateur quantique la possibilité d’effectuer des manipulations sur des quantités gigantesques de valeurs, quantités hors d’atteinte d’un ordinateur classique.

Le principe d’incertitude découvert par Werner Heisenberg en 1927, nous dit que, quels que soient nos outils de mesure, nous sommes incapables de déterminer précisément à la fois la position et la vitesse d’un objet quantique (à l’échelle atomique). Soit nous savons précisément où se trouve l’objet et la vitesse semblera fluctuer et devenir floue, soit nous avons une idée précise de la vitesse mais sa position nous échappera.

Julien Bobroff dans son livre La quantique autrement : garanti sans équation ! décrit l’expérience quantique en trois actes :

Le premier moment se situe avant la mesure où l’objet quantique se comporte comme une onde. L’équation de Schrödinger nous permet de prévoir avec précision comment cette dernière se propage, à quelle vitesse, dans quelle direction, si elle s’étale ou se contracte. Ensuite c’est la décohérence qui fait son apparition. La décohérence se passe de manière extrêmement rapide, quasi instantanée. C’est à ce moment précis que l’onde entre en contact avec un outil de mesure (par exemple un écran fluorescent). Cette onde est obligée d’interagir avec les particules qui composent ce dispositif. C’est le moment où l’onde se réduit. La dernière étape, c’est le choix aléatoire parmi tous les états possibles. Le tirage au sort est lié à la forme de la fonction d’onde au moment de la mesure. En fait, seule la forme de la fonction d’onde à la fin du premier acte dicte sa probabilité d’apparaître ici ou là.

Un autre phénomène de la mécanique quantique est l’effet tunnel. Julien Bobroff donne l’exemple d’une balle de tennis. À l’inverse de celle-ci, une fonction d’onde quantique ne rebondit que partiellement contre une barrière. Une petite partie peut pénétrer de l’autre côté par effet tunnel. Cela implique que si la particule est mesurée, elle se matérialisera tantôt à gauche du mur, tantôt à droite.

Un ordinateur quantique utilise donc les lois de la mécanique quantique pour faire des calculs. Il faut qu’il soit dans certaines conditions, parfois extrêmes, comme plonger un système dans de l’hélium liquide pour atteindre des températures proches du zéro absolu soit -273.15°C.

Construire un ordinateur quantique repose sur la capacité de développer une puce informatique sur laquelle sont gravés des qubits. Du point de vue technologique, il existe plusieurs manières de constituer des qubits, nous pouvons utiliser des atomes, des photons, des électrons, des molécules ou des métaux supraconducteurs. Dans certains cas, pour pouvoir fonctionner, un ordinateur quantique a besoin de conditions extrêmes pour opérer comme des températures proches du zéro absolu. Le choix d’IBM par exemple, est d’utiliser des qubits supraconducteurs, construits avec des oxydes d’aluminium (on appelle aussi cette technologie : qubits transmons). Comme évoqué ci-dessus pour permettre et garantir les effets quantiques (superposition et intrication) les qubits doivent être refroidis à une température aussi proche que possible du zéro absolu (soit environ -273°C). Chez IBM ce seuil de fonctionnement est d’environ 20 millikelvins. IBM a démontré la capacité de concevoir un qubit unique en 2007 et en 2016 et a annoncé la mise à disposition dans le cloud d’un premier système physique opérationnel doté de 5 qubits et d’un environnement de développement « QISKit » (Quantum Information Science Kit), permettant de concevoir, tester et optimiser des algorithmes pour des applications commerciales et scientifiques. L’initiative « IBM Q Experience » constitue une première dans le monde industriel.

Source : https://www.ibm.com/blogs/research/2020/09/ibm-quantum-roadmap/
Source : https://www.ibm.com/quantum-computing/ibm-q-network/

IBM a aujourd’hui 38 ordinateurs quantiques, dont un système à 65-qubit, et a récemment publié sa feuille de route.

Source : https://www.ibm.com/blogs/research/2020/09/ibm-quantum-roadmap/

Cette ouverture au public a permis à plus de 325 000 utilisateurs de lancer des centaines de milliards d’exécutions de circuits sur du matériel réel et des simulateurs. L’accès à ses machines a conduit à la publication de plus de 700 papiers de recherche par des chercheurs non IBM. IBM a également construit un réseau de plus de 150 membres, que l’on appelle IBM Quantum Network, ayant un accès privilégié aux dernières technologies quantiques pour travailler notamment sur des cas d’usages. IBM Quantum Network est composé de grands groupes, de startups, d’université et laboratoire partout dans le monde.

Le nombre de qubits progressera au fur et à mesure mais cela ne suffit pas. Dans la course au développement d’ordinateurs quantiques, au-delà des qubits, d’autres composantes sont essentielles. On parle de « volume quantique » comme une mesure pertinente de la performance et des progrès technologiques (26). D’autres mesures sont également proposées par des entreprises et laboratoires. On définit aussi « l’avantage quantique » c’est le point à partir duquel les applications du calcul quantique offriront un avantage pratique significatif et démontrable qui dépasse les capacités des seuls ordinateurs classiques. Le concept de volume quantique a été introduit par IBM en 2017. Il commence à se généraliser auprès d’autres constructeurs. Le volume quantique est une mesure qui détermine la puissance d’un système informatique quantique, tenant compte à la fois des erreurs de porte et de mesure, de la diaphonie de l’appareil, ainsi que de la connectivité de l’appareil et de l’efficacité du compilateur de circuits. Le volume quantique est utilisable pour tout système informatique quantique NISQ basé sur des portes et des circuits. Par exemple si vous baissez le taux d’erreurs de x10 sans ajouter de qubits supplémentaires vous pouvez avoir une augmentation du volume quantique de 500x. Au contraire, si vous ajoutez 50 qubits supplémentaires, mais que le taux d’erreur de baisse pas, vous pouvez avoir un volume quantique qui augmente de 0x. L’ajout de qubits ne fait pas tout.

Aujourd’hui, les défis que les chercheurs doivent surmonter sont d’ordre technologique comme la stabilité dans le temps. Quand vous faites tourner un algorithme quantique sur un ordinateur quantique en réel, il y a énormément d’externalités qui peuvent venir perturber l’état quantique de votre programme, qui est déjà fragile. Un autre défi technologique concerne la quantité de qubits que l’on va pouvoir prendre en considération. À chaque fois qu’on augmente la capacité d’un ordinateur quantique d’un qubit, on réduit sa stabilité. Un autre défi, c’est que nous allons être obligés de repenser l’intégralité de l’algorithmie qu’on connaît pour l’adapter à l’informatique quantique. Bien évidemment, il faut pouvoir exécuter des tâches sur ces machines, c’est pourquoi IBM a développé une bibliothèque de programmation spécifique appelée QISKit (Quantum Information Science Kit). Il s’agit d’une librairie open source pour le langage Python, disponible sur qiskit.org. Son développement est très actif, l’ensemble des contributeurs, dont IBM, fait régulièrement évoluer les fonctionnalités de cet environnement de programmation.

Les ordinateurs quantiques vont s’ajouter aux ordinateurs classiques pour adresser des problèmes qui sont aujourd’hui non résolus. Les ordinateurs classiques peuvent par exemple calculer des problèmes complexes que ne peut calculer un ordinateur quantique. Il y a des problèmes que les deux ordinateurs, classique et quantique, pourront résoudre. Et enfin, des défis que ne peut résoudre un ordinateur classique mais qu’un ordinateur quantique pourra adresser. Beaucoup d’applications sont possibles dans le domaine de la chimie, la science des matériaux, le machine learning ou l’optimisation.

Par exemple, il est difficile pour un ordinateur classique de calculer de façon exacte (c’est-à-dire sans aucune approximation) l’énergie de la molécule de caféine, pourtant de taille moyenne avec 24 d’atomes, c’est un problème très complexe (27) (28). Nous aurions approximativement besoin de 10⁴⁸ bits pour représenter la configuration énergétique d’une seule molécule de caféine à un instant t. Soit presque le nombre d’atomes admis sur terre qui est de 10⁵⁰. Mais nous pensons qu’il est possible de le faire avec 160 qubits.

Mais ce ne n’est pas la seule limite. Pour vous donner une illustration simple, nous pouvons parler du problème dit « du vendeur itinérant », ou plus exactement aujourd’hui, le problème de l’acheminement des camions de livraison. Si vous souhaitez choisir l’itinéraire le plus efficace pour qu’un camion livre des colis à cinq adresses, il existe 12 itinéraires possibles, il est donc au moins possible d’identifier le meilleur. Cependant, à mesure que vous ajoutez d’autres adresses, le problème devient exponentiellement plus difficile — au moment où vous avez 15 livraisons, il y a plus de 43 milliards d’itinéraires possibles, ce qui rend pratiquement impossible de trouver le meilleur. Par exemple, pour 71 villes, le nombre de chemins candidats est supérieur à 5 × 10⁸⁰.

À l’heure actuelle, l’informatique quantique est adaptée pour certains algorithmes comme l’optimisation, le Machine Learning ou la simulation. Avec ce type d’algorithmes, les cas d’usage s’appliquent dans plusieurs secteurs industriels. Les services financiers comme l’optimisation des risques du portefeuille, la détection des fraudes, la santé (recherche de médicaments, étude des protéines, etc.), les chaînes d’approvisionnement et la logistique, la chimie, la recherche de nouveaux matériaux ou le pétrole sont autant de domaines qui vont être prioritairement impactés.

Nous pouvons aborder plus spécifiquement le futur de la recherche médicale avec le quantique qui devrait permettre à terme de synthétiser de nouvelles molécules thérapeutiques. Si nous voulons relever le défi du changement climatique par exemple, nous devons résoudre de nombreux problèmes tels que concevoir de meilleures batteries, trouver des moyens moins énergivores de cultiver nos aliments et planifier nos chaînes d’approvisionnement pour minimiser les transports. Résoudre efficacement ces problèmes nécessite des approches informatiques radicalement améliorées dans des domaines tels que la chimie et la science des matériaux, ainsi que dans l’optimisation et la simulation — des domaines où l’informatique classique est confrontée à de sérieuses limitations. Pour un ordinateur classique faire le produit de deux nombres et obtenir le résultat est une opération très simple : 7*3 = 21 ou 6739*892721 = 6016046819. Cela reste vrai pour de très grands nombres. Mais le problème inverse est nettement plus complexe. Connaissant un grand nombre N, il est plus compliqué de trouver P et Q tel que : P x Q = N. C’est cette difficulté qui est à la base des techniques de cryptographie courantes. Pour un tel problème, à titre d’exemple on estime qu’un problème qui durerait 1025 jours sur un ordinateur classique pourrait être résolu en quelques dizaines de secondes sur une machine quantique. On parle pour ce cas d’accélération exponentielle. Avec les ordinateurs quantiques, nous pouvons aborder les problèmes de manière entièrement nouvelle en tirant parti de l’intrication, de la superposition et des interférences : modéliser les procédures physiques de la nature, effectuer beaucoup plus simulations de scénarios, obtenir de meilleures solutions d’optimisation, trouver de meilleurs modèles dans les processus AI / ML. Dans ces catégories de problème éligibles aux ordinateurs quantiques, on trouve beaucoup de cas d’optimisation, dans les domaines logistiques (plus court chemin), de la finance (estimation de risques, évaluation de portefeuilles d’actifs), du marketing (« maxcut », « clique »), de l’industrie et de la conception de systèmes complexes (satisfiabilité, parcours de graphes) (29) (30) (31) (32) (33) (34). Le domaine de l’IA (35) (36) est également un champ de recherche actif, et des méthodes d’apprentissage pour les réseaux de neurones artificiels commencent à voir le jour, c’est donc l’ensemble des activités humaines concernées par le traitement de l’information qui sont potentiellement concernées par l’avenir du calcul quantique. Le domaine de la cybersécurité et de la cryptographie est également un sujet d’attention. L’algorithme de Shor a été démontré voici plus de 20 ans et il pourrait rendre fragile le chiffrage communément utilisé sur internet. Il faudra attendre que les machines quantiques soient suffisamment puissantes pour traiter ce type de calcul particulier, et d’autre part des solutions de cryptage sont déjà connues et démontrées hors d’atteinte de cet algorithme. Parmi les solutions, il y a les technologies quantiques elles-mêmes qui permettent de générer et de transporter des clefs de cryptage de manière absolument inviolable. De ce fait le domaine des technologies quantiques et du calcul quantique en particulier est considéré comme un enjeu stratégique, et l’Europe, la France et bien d’autres pays soutiennent les efforts de recherche dans ce domaine.

Si l’on prend les cas d’usages par secteurs, nous pouvons en trouver de nombreux dans les banques et institutions financières : améliorer les stratégies de trading, améliorer les portefeuilles clients et mieux analyser les risques financiers. Un algorithme quantique en cours de développement, par exemple, pourrait potentiellement fournir une accélération quadratique dans les cas d’utilisation de la tarification des produits dérivés — un instrument financier complexe qui nécessite 10 000 simulations pour être évalué sur un ordinateur classique ne nécessiterait que 100 opérations quantiques sur un appareil quantique.

Un des cas d’usages du quantique est l’optimisation du trading. Il sera également possible pour les banques d’accélérer les optimisations de portefeuille comme les simulations de Monte-Carlo. La simulation d’achat et vente de produits (trading) tels que les produits dérivés peuvent être améliorés grâce à l’informatique quantique. La complexité des activités de trading sur les marchés financiers monte en flèche. Les gestionnaires de placements peinent à intégrer des contraintes réelles, telles que la volatilité du marché et les changements des événements de la vie des clients, dans l’optimisation du portefeuille. Actuellement, le rééquilibrage des portefeuilles d’investissement qui suivent les mouvements du marché est fortement impacté par les contraintes de calcul et les coûts de transaction. La technologie quantique pourrait aider à réduire la complexité des environnements commerciaux d’aujourd’hui. Les capacités d’optimisation combinatoire de l’informatique quantique peuvent permettre aux gestionnaires de placements d’améliorer la diversification du portefeuille, de rééquilibrer les investissements de portefeuille pour répondre plus précisément aux conditions du marché et aux objectifs des investisseurs, et de rationaliser de manière plus rentable les processus de règlement des transactions. Le machine learning est aussi utilisé pour l’optimisation de portefeuille et la simulation de scénarii. Les banques et les institutions financières comme les hedge funds sont de plus en plus intéressées, car ils y voient une façon de minimiser les risques tout en maximisant les gains avec des produits dynamiques qui s’adaptent en fonction de nouvelles données simulées. La finance personnalisée est aussi un domaine exploré. Les clients exigent des produits et services personnalisés qui anticipent rapidement l’évolution de leurs besoins et de leurs comportements. De petites et moyennes institutions financières peuvent perdre des clients en raison d’offres qui ne privilégient pas l’expérience client. Il est difficile de créer des modèles analytiques qui passent au crible des monticules de données comportementales suffisamment rapidement et avec précision pour cibler et prévoir les produits dont certains clients ont besoin en temps quasi réel. Un problème similaire existe dans la détection des fraudes pour trouver des modèles de comportements inhabituels. On estime que les institutions financières perdent entre 10 et 40 milliards de dollars de revenus par an en raison de fraudes et de mauvaises pratiques de gestion des données. Pour le ciblage client et la modélisation des prévisions, l’informatique quantique pourrait changer la donne. Les capacités de modélisation des données des ordinateurs quantiques devraient s’avérer supérieures pour trouver des modèles, effectuer des classifications et faire des prédictions qui ne sont pas possibles aujourd’hui avec les ordinateurs classiques en raison des défis des structures de données complexes. Un autre cas d’usage dans le monde de la finance est l’analyse de risques. Les calculs de l’analyse des risques sont difficiles, car il est difficile sur le plan informatique d’analyser de nombreux scénarios. Les coûts de mise en conformité devraient plus que doubler au cours des prochaines années. Les institutions de services financiers sont soumises à des pressions croissantes pour équilibrer les risques, couvrir les positions plus efficacement et effectuer un plus large éventail de tests de résistance pour se conformer aux exigences réglementaires. Aujourd’hui, les simulations de Monte-Carlo — la technique privilégiée pour analyser l’impact du risque et de l’incertitude dans les modèles financiers — sont limitées par la mise à l’échelle de l’erreur d’estimation. Les ordinateurs quantiques ont le potentiel d’échantillonner les données différemment en testant plus de résultats avec une plus grande précision, fournissant une accélération quadratique pour ces types de simulations.

La modélisation moléculaire permet des découvertes telles que des batteries au lithium plus efficaces. Pouvoir modéliser les processus physiques de la nature permettra de développer de nouveaux matériaux avec des propriétés différentes. L’informatique quantique donnera les moyens de simuler les atomes ou interactions atomiques beaucoup plus précisément et à des échelles beaucoup plus grandes. Des nouveaux matériaux vont pouvoir être utilisés partout que cela soit dans les produits de consommation ou les voitures, les batteries, etc. L’informatique quantique permettra d’exécuter des calculs d’orbite moléculaire sans approximations. Une autre application est l’optimisation du réseau électrique d’un pays, une modélisation environnementale plus prédictive et la recherche de sources d’énergie à émissions plus faibles. L’aéronautique sera également source de cas d’usages. Dans le transport aérien, à chaque atterrissage d’un avion des centaines d’opérations se mettent en place : Changement d’équipage, pleins de carburant, nettoyage de la cabine, livraison des bagages, inspections des éléments moteurs et train d’atterrissage. Chaque opération fait elle-même appel à des sous-opérations (pour le plein de carburant, il faut un camion-citerne disponible, un chauffeur du camion et 2 personnes pour le remplissage. Au préalable il faut bien sûr remplir la citerne, etc.). Donc au total des centaines d’opérations/actions élémentaires à prévoir, et cela pour tous les avions atterrissant dans le même créneau horaire. Imaginons un orage sur Paris retarde de 30mn l’atterrissage. Il faut alors en temps réel tout recalculer pour tous les avions. Les véhicules électriques ont une faiblesse : la capacité et la vitesse de charge de leurs batteries. Une percée en informatique quantique réalisée par des chercheurs d’IBM et de Daimler AG (37), la société mère de Mercedes-Benz, pourrait aider à relever ce défi. Le constructeur automobile Daimler, s’intéresse de près à l’impact de l’informatique quantique sur l’optimisation de la logistique des transports, jusqu’aux prédictions sur les futurs matériaux pour la mobilité électrique, notamment la prochaine génération de batteries. Il y a tout lieu d’espérer que les ordinateurs quantiques donneront des résultats initiaux dans les années à venir pour simuler avec précision la chimie des cellules de batterie, les processus de vieillissement et les limites de performance des cellules de batterie. Lorsque les temps d’exécution d’une solution précise prennent trop de temps, les entreprises se contentent de calculs inférieurs. Le problème du voyageur du commerce peut être étendu dans de nombreux domaines comme l’énergie, les télécommunications, la logistique, les chaines de productions ou l’allocation de ressources. Par exemple, dans le fret maritime, il y a une grande complexité dans la gestion des containers de bout en bout : charger, convoyer, livrer puis décharger dans plusieurs ports dans le monde est un problème multiparamétrique pouvant être adressé par l’informatique quantique. Une meilleure compréhension des interactions entre les atomes et les molécules permettra de découvrir de nouveaux médicaments. L’analyse en détail des séquences d’ADN permettra de détecter les cancers plus tôt en développant des modèles qui détermineront comment les maladies se développent. L’avantage du quantique sera d’analyser dans le détail à une échelle jamais atteinte le comportement des molécules. Les simulations de scénarios permettront de mieux prédire les risques d’une maladie ou sa diffusion, la résolution de problèmes d’optimisations permettra d’optimiser les chaînes de distributions des médicaments, et enfin l’utilisation de l’IA permettra d’accélérer les diagnostics, d’analyser plus précisément les données génétiques.

Conclusion

Le centre de données de demain est un centre de données composé de systèmes hétérogènes, qui tourneront des charges de travail hétérogènes. Les systèmes seront localisés au plus près des données. Les systèmes hétérogènes seront dotés d’accélérateurs binaires, d’inspirations biologiques et quantiques. Tel un chef d’orchestre, le cloud hybride permettra grâce à une couche de sécurité et d’automatisation intelligente de mettre ces systèmes en musique.

Retrouvez le premier chapitre et le deuxième parlant respectivement des systèmes binaires et biologiques.

References

1. The Future of Computing: Bits + Neurons + Qubits. Green, Dario Gil and William M. J. arXiv:1911.08446 [physics.pop-ph].

2. ECRAM as Scalable Synaptic Cell for High-Speed, Low-Power Neuromorphic Computing. Jianshi Tang, Douglas Bishop, Seyoung Kim, Matt Copel, Tayfun Gokmen, Teodor Todorov, SangHoon Shin,Ko-Tao Lee, Paul Solomon, Kevin Chan, Wilfried Haensch, John Rozen. IEEE-IEDM (2018).

3. Neuromorphic computing using non-volatile memory. G. W. Burr, R. M. Shelby, A. Sebastian, S. Kim, S. Kim and e. al. 2016, Advances in Physics: X, Vol. vol. 2, pp. pp. 89–124.

4. TrueNorth: Accelerating From Zero to 64 Million Neurons in 10 Years. al, M. V. DeBole et. no. 5, May 2019, Computer, Vol. vol. 52, pp. pp. 20–29.

5. A Symbolic Analysis of Relay and Switching Circuits. Shannon, Claude E. s.l. : Massachusetts Institute of Technology, Dept. of Electrical Engineering, 1940.

6. A Mathematical Theory of Communication. Shannon, Claude E. p. 379–423 and 623–656, s.l. : Bell System Technical Journal, 1948, Vol. vol. 27.

7. The Mathematical Theory of Communication. Claude E. Shannon, Warren Weaver. Urbana, Illinois : The University of Illinois Press, 1949.

8. Molecular digital data storage using DNA. Luis Ceze, Jeff Nivala, Karin Strauss. s.l. : Nat Rev Genet , 2019, Vol. 20.

9. IBM Z mainframe capabilities. [En ligne] https://www.ibm.com/it-infrastructure/z/capabilities?cm_mmc=OSocial_Twitter-_-Systems_Systems+-+Cross-_-WW_WW-_-Zstats-87percent&linkId=72022252&fbclid=IwAR3gti8qo5F5APjqjMoKFS3LmS0WwiKqZ6fejABlK3w6t7QJLW69CP0ZpM8.

10. Peng, Tony. AI Doubling Its Compute Every 3.5 Months. [En ligne] https://syncedreview.com/2018/05/17/ai-doubling-its-compute-every-3-5-months/.

11. The discovery of dendritic spines by Cajal. Yuste, Rafael. s.l. : Front Neuroanat, 2015.

12. Gradient-based learning applied to document recognition. Y. LeCun, L. Bottou, Y. Bengio and P. Haffner. 1998, Proceedings of the IEEE, Vol. vol. 86, pp. pp. 2278–2324.

13. Deep learning with limited numerical precision. S. Gupta, A. Agrawal, K. Gopalkrishnan and P. Narayanan. 2015, International Conference on Machine Learning.

14. PACT: PARAMETERIZED CLIPPING ACTIVATION FOR QUANTIZED NEURAL NETWORKS. Jungwook Choi, Zhuo Wang, Swagath Venkataramani, Pierce I-Jen Chuang, Vijayalakshmi Srinivasan, Kailash Gopalakrishnan. 17 Jul 2018, arXiv:1805.06085v2 [cs.CV] .

15. The next generation of deep learning hardware: Analog computing. W. Haensch, T. Gokmen and R. Puri. 2018, Proceedings of the IEEE, Vol. vol. 107, , pp. pp. 108–122.

16. Equivalent- accuracy accelerated neural-network training using analogue memory. S. Ambrogio, P. Narayanan, H. Tsai, R. Shelby, I. Boybat and e. al. 2018, Nature, Vol. vol. 558, pp. pp. 60–67.

17. Weight programming in DNN analog hardware accelerators in the presence of NVM variability. C. Mackin, H. Tsai, S. Ambrogio, P. Narayanan, A. Chen and G. W. Burr. 2019, Advanced Electronic Materials, Vol. vol. 5, p. p. 1900026.

18. Neuromorphic computing using non-volatile memory. G. W. Burr, R. M. Shelby, A. Sebastian, S. Kim, S. Kim and e. al. 2016, Advances in Physics: X, Vol. vol. 2, pp. pp. 89–124.

19. Multilevel-Cell Phase-Change Memory: A Viable Technology. 6(1), 87–100, 2016., IEEE J. Emerging and Selected Topics in Circuits and Systems .

20. Recent Progress in Phase-Change Memory Technology. G.W. Burr, M.J. Brightsky, A. Sebastian, H.-Y. Cheng, J.-W. Wu, S. Kim, N.E. Sosa. N. Papandreou, H.-L. Lung, H. Pozidis, E. Eleftheriou, C.H. Lam. IEEE J. Emerging and Selected Topics in Circuits and Systems, Vol. 6(2), 146–162, 2016.

21. Neuromorphic computing with multi-memristive synapses. Irem Boybat, Manuel Le Gallo, S. R. Nandakumar, Timoleon Moraitis, Thomas Parnell, Tomas Tuma, Bipin Rajendran, Yusuf Leblebici, Abu Sebastian & Evangelos Eleftheriou. s.l. : Nature Communications , 2018, Vol. 9.

22. A million spiking-neuron integrated circuit with scalable communication network and interface. al., Paul A. Merolla et. Issue 6197, pp. 668–673, s.l. : Science, 2014, Vol. Vol. 345, .

23. TrueNorth: Accelerating From Zero to 64 Million Neurons in 10 Years. al., Michael V. DeBole et. pp. 20–28, s.l. : IEEE Computer, 2019, Vol. 52.

24. Feynman, Richard. s.l. : International Journal of Theoretical Physics, 1982, Vol. Vol 21, Nos. 6/7, 1982.

25. Nay, Chris. IBM Opens Quantum Computation Center in New York; Brings World’s Largest Fleet of Quantum Computing Systems Online, Unveils New 53-Qubit Quantum System for Broad Use. [En ligne] https://newsroom.ibm.com/2019-09-18-IBM-Opens-Quantum-Computation-Center-in-New-York-Brings-Worlds-Largest-Fleet-of-Quantum-Computing-Systems-Online-Unveils-New-53-Qubit-Quantum-System-for-Broad-Use.

26. Validating quantum computers using randomized model circuits. Andrew W. Cross, Lev S. Bishop, Sarah Sheldon, Paul D. Nation, and Jay M. Gambetta. s.l. : arXiv:1811.12926v2 [quant-ph], 2019.

27. Hardware-efficient variational quantum eigensolver for small molecules and quantum magnets. Abhinav Kandala, Antonio Mezzacapo, Kristan Temme, Maika Takita, Markus Brink, Jerry M. Chow & Jay M. Gambetta. pages242–246, s.l. : Nature , 2017, Vol. volume 549, .

28. Computational Investigations of the Lithium Superoxide Dimer Rearrangement on Noisy Quantum Devices. Qi Gao, Hajime Nakamura, Tanvi P. Gujarati, Gavin O. Jones, Julia E. Rice, Stephen P. Wood, Marco Pistoia, Jeannette M. Garcia, Naoki Yamamoto. s.l. : arXiv:1906.10675 [quant-ph], 2019.

29. Quantum risk analysis. Stefan Woerner, Daniel J. Egger. s.l. : npj Quantum Information , 2019, Vol. volume 5.

30. Quantum Generative Adversarial Networks for Learning and Loading Random Distributions. Christa Zoufal, Aurélien Lucchi, Stefan Woerner. s.l. : arXiv:1904.00043 [quant-ph].

31. Amplitude estimation without phase estimation. Yohichi Suzuki, Shumpei Uno, Rudy Raymond, Tomoki Tanaka, Tamiya Onodera, Naoki Yamamoto. s.l. : Quantum Information Processing, 19, 75, 2020.

32. Credit Risk Analysis using Quantum Computers. Daniel J. Egger, Ricardo Gacía Gutiérrez, Jordi Cahué Mestre, Stefan Woerner. s.l. : arXiv:1907.03044 [quant-ph].

33. Option Pricing using Quantum Computers. Nikitas Stamatopoulos, Daniel J. Egger, Yue Sun, Christa Zoufal, Raban Iten, Ning Shen, Stefan Woerner. s.l. : arXiv:1905.02666 [quant-ph].

34. Improving Variational Quantum Optimization using CVaR. Panagiotis Kl. Barkoutsos, Giacomo Nannicini, Anton Robert, Ivano Tavernelli, Stefan Woerner. s.l. : arXiv:1907.04769 [quant-ph].

35. Supervised learning with quantum-enhanced feature spaces. Vojtěch Havlíček, Antonio D. Córcoles, Kristan Temme, Aram W. Harrow, Abhinav Kandala, Jerry M. Chow & Jay M. Gambetta. pages 209–212, s.l. : Nature , 2019, Vol. volume 567.

36. Analysis and synthesis of feature map for kernel-based quantum classifier. Yudai Suzuki, Hiroshi Yano, Qi Gao, Shumpei Uno, Tomoki Tanaka, Manato Akiyama, Naoki Yamamoto. s.l. : arXiv:1906.10467 [quant-ph].

37. Quantum Chemistry Simulations of Dominant Products in Lithium-Sulfur Batteries. Julia E. Rice, Tanvi P. Gujarati, Tyler Y. Takeshita, Joe Latone, Mario Motta, Andreas Hintennach, Jeannette M. Garcia. s.l. : arXiv:2001.01120 [physics.chem-ph], 2020.

38. [En ligne] https://www.research.ibm.com/frontiers/ibm-q.html.

39. [En ligne] https://news.exxonmobil.com/press-release/exxonmobil-and-ibm-advance-energy-sector-application-quantum-computing.

40. https://spectrum.ieee.org/tech-history/cyberspace/celebrating-claude-shannon

41. https://newsroom.ibm.com/2019-09-12-IBM-Unveils-z15-With-Industry-First-Data-Privacy-Capabilities

42. https://newsroom.ibm.com/Gordon-Bell-Prize-Winners-Embrace-Summit-to-Advance-COVID-19-Research

43. https://fr.newsroom.ibm.com/announcements?item=123479

--

--

Xavier Vasques

CTO and Distinguished Data Scientist, IBM Technology, France Head of Clinical Neurosciences Research Laboratory, France