Une nouvelle étape pour l’informatique [Partie 1] : Le Binaire

Xavier Vasques
14 min readNov 13, 2021
Photo by Annamária Borsos

Retrouvez le deuxième chapitre et le dernier parlant respectivement des systèmes biologiques et quantiques.

Introduction

L’informatique classique a connu des progrès remarquables guidés par la loi de Moore. Celle-ci nous dit que tous les deux ans, nous doublons le nombre de transistors dans un processeur et nous augmentons par la même occasion les performances par deux ou réduisons les coûts par deux. Cette cadence a ralenti au cours de la dernière décennie et nous assistons aujourd’hui à un plafonnement. Ce ralentissement oblige à une transition. Nous devons repenser l’informatique et notamment aller vers des architectures de systèmes hétérogènes dotés d’accélérateurs afin de répondre au besoin de performances dans des enveloppes de coûts traditionnelle (1). Les progrès qui ont été faits sur la puissance de calcul brute nous ont néanmoins amenés à un point où les modèles de calcul d’inspiration biologique basés sur des réseaux de neurones sont désormais hautement considérés dans l’état de l’art (2) (3)(4). L’intelligence artificielle (IA) est également un domaine amenant des opportunités de progrès, mais aussi des défis. Les capacités de l’IA ont considérablement augmenté dans leur capacité à interpréter et analyser des données. L’IA peut également être exigeante en termes de puissance de calcul à cause de la complexité de certains « workflows ». L’IA peut également être appliqué à la gestion et à l’optimisation de systèmes informatiques entiers (1). En parallèle des accélérateurs classiques ou d’inspiration biologique, l’informatique quantique programmable émerge grâce à plusieurs dizaines d’années d’investissement dans la recherche dans un but de surmonter les limites physiques traditionnelles. Cette nouvelle ère de l’informatique va potentiellement avoir les capacités de faire des calculs aujourd’hui non possibles par des ordinateurs classiques mais aussi non possibles pour les ordinateurs classiques, binaires, de demain. Les futurs systèmes devront intégrer des capacités d’informatiques quantiques pour effectuer des calculs spécifiques. La recherche avance rapidement. IBM a mis à disposition des ordinateurs quantiques programmables pour la première fois sur le cloud en mai 2016 et a annoncé son ambition de doubler le volume quantique chaque année. On parle de la loi de Gambetta. Le cloud est aussi un élément qui apporte des défis et des opportunités considérables dans l’informatique. Le cloud est capable de fournir des capacités de calcul complexe et géographiquement répartie dans l’économie mondiale connectée. Le cloud a un rôle important à jouer. Les centres de données de demain seront pilotés par le cloud et équipés de systèmes hétérogènes qui tourneront des « workloads » hétérogènes de manière sécurisé. Les données ne seront plus centralisées ou décentralisées mais seront organisées en « hub ». La puissance de calcul devra se trouver à la source de la donnée qui aujourd’hui arrive à des volumes extrêmes. Les systèmes de stockage sont aussi pleins de défis pour favoriser la disponibilité, la performance, la gestion mais aussi la fidélité des données. Nous devons concevoir des architectures permettant d’extraire de la valeur des données de plus en plus complexes et souvent régulées qui posent de multiples défis, notamment la sécurité, le chiffrement, la confidentialité ou la traçabilité. L’avenir de l’informatique sera construit avec des systèmes hétérogènes composés d’informatique classique dite systèmes binaires ou bits, d’informatique d’inspiration biologique et d’informatique quantique dite systèmes quantiques ou qubits (1). Ces composants hétérogènes seront orchestrés et déployés par une structure cloud hybride qui masque la complexité tout en permettant l’utilisation et le partage sécurisés des systèmes et des données privés et publics.

Les systèmes binaires

Les premiers ordinateurs binaires furent construits dans les années 40 : Colossus (1943) puis ENIAC (IBM — 1945). Colossus a été conçu pour déchiffrer des messages secrets allemands et l’ENIAC conçu pour calculer des trajectoires balistiques. L’ENIAC (acronymede l’expression anglaise Electronic Numerical Integrator And Computer) est en 1945 le premier ordinateur entièrement électroniqueconstruit pour être « Turing-complet » : il peut être reprogrammé pour résoudre, en principe, tous les problèmes calculatoires. L’ENIAC a été programmé par des femmes, dites les « femmes ENIAC ». Les plus célèbres d’entre elles étaient Kay McNulty, Betty Jennings, Betty Holberton, Marlyn Wescoff, Frances Bilas et Ruth Teitelbaum. Ces femmes avaient auparavant effectué des calculs balistiques sur des ordinateurs de bureau mécaniques pour l’armée. L’ENIAC pèse alors 30 tonnes, occupe une surface de 72 m2 et consomme 140 kilowatts. Quelle que soit la tâche effectuée par un ordinateur, le processus sous-jacent est toujours le même : une instance de la tâche est décrite par un algorithme qui est traduit en une suite de 0 et de 1, pour donner lieu à l’exécution dans le processeur, la mémoire et les dispositifs d’entrée/sortie de l’ordinateur. C’est la base du calcul binaire qui en pratique repose sur des circuits électriques dotés de transistors pouvant être dans deux modes : « ON » permettant au courant de passer et « OFF » le courant ne passe pas. À partir de ces 0 et ces 1 on a donc développé au cours des 80 dernières années une théorie de l’information classique construite à partir d’opérateurs booléens (XAND, XOR), de mots (Octets), et une arithmétique simple basée sur les opérations suivantes : « 0+0=0, 0+1=1+0=1, 1+1=0 (avec une retenue), et vérifier si 1=1 , 0=0 et 1≠0. Bien entendu à partir de ces opérations, il est possible de construire des opérations beaucoup plus complexes que les ordinateurs peuvent effectuer des millions de milliards de fois par seconde pour les plus puissants d’entre eux. Tout cela est devenu tellement « naturel » que l’on oublie totalement que chaque transaction sur un serveur informatique, sur un PC, une calculette, un smartphone se décompose en ces opérations binaires élémentaires. Dans un ordinateur, ces 0 et 1 sont contenus dans des « BInary digiTs » ou « bits » qui représentent la plus petite quantité d’information contenue dans un système informatique. L’ingénieur en génie électrique et mathématicien Claude Shannon (1916–2001) fut l’un des pères fondateurs de la théorie de l’information. Pendant 20 ans, Claude Shannon a travaillé au Massachusetts Institute of Technology (MIT) et parallèlement à ses activités académiques, il a travaillé aux laboratoires Bell. Il se marie en 1949 à Madame Moore. Pendant la Seconde Guerre mondiale, Claude Shannon travaille pour les services secrets américains, en cryptographie, afin de localiser des messages cachés dans des codes allemands. Une de ses contributions essentielles concerne la théorie de la transmission des signaux (5) (6) (7). C’est dans ce contexte qu’il mit au point une théorie de l’information notamment en comprenant que toute donnée, même la voix ou des images, peut se transmettre à l’aide d’une suite de 0 et de 1.

Photo: Alfred Eisenstaedt/The LIFE Picture Collection/Getty Images (40)

Le binaire utilisés par les ordinateurs classiques est apparu au milieu du 20e siècle, lorsque les mathématiques et l’information ont été combinées d’une manière nouvelle pour former la théorie de l’information, lançant à la fois l’industrie informatique et les télécommunications. La force du binaire réside dans sa simplicité et sa fiabilité. Un bit est soit zéro soit un, un état qui peut être facilement mesuré, calculé, communiqué ou stocké (1). Lorsqu’ils sont fournis avec la même entrée binaire, les programmes classiques produisent toujours la même sortie. Cela nous a permis de créer des systèmes incroyablement robustes et fiables pour gérer des charges de travail à volume élevé. Grâce à cette méthode, différents systèmes de calculs et de stockage de données ont vu le jour jusqu’au stockage de données numériques sur une molécule d’ADN (8).

Nous avons aujourd’hui des exemples de systèmes binaires avec des possibilités incroyables. Un premier exemple, c’est l’IBM Z. Un processeur IBM Z, Single Chip Module (SCM), utilise une technologie Silicon On Insulator (SOI) à 14 nm. Il contient 9.1 milliards de transistors. Il y a 12 cœurs par PU SCM à 5.2GHz. Cette technologie permet avec un seul et même système de pouvoir traiter 19 milliards de transactions encryptées par jour et 1000 milliards de transactions web par jour. L’ensemble des IBM Z installés dans le monde traitent aujourd’hui 87% des transactions par carte bancaire et huit mille milliards de payements par an (9).

Source : IBM News Room (41)

Nous pouvons aussi citer deux ordinateurs parmi les plus puissants du monde, respectivement nommés Summit et Sierra. Ils sont installés dans le Laboratoire d’Oak Ridge dans le Tennessee et dans le Laboratoire National Lawrence à Livermore en Californie. Ces ordinateurs aident à modéliser des supernovas ou de nouveaux matériaux, des chercheurs les utilisent pour trouver des solutions contre le cancer, étudier la génétique et l’environnement. Summit est capable de délivrer une puissance de 200 pétaflops avec une capacité de stockage de 250 petabytes. Il est composé de 9216 IBM Power9 CPUs, 27648 NVIDIA Tesla GPUs et une communication réseau de 25 Gigabytes par seconde entre les nœuds. Malgré tout, même l’ordinateur le plus puissant du monde, doté d’accélérateurs GPUs, ne peut pas tout calculer.

Source : IBM News Room (42)

Aujourd’hui, ce type de technologie est indispensable à la recherche médicale. Et nous l’avons vu pendant cette crise du Covid-19. Nous pouvons prendre l’exemple de l’utilisation de la puissance des supercalculateurs avec le consortium HPC COVID-19 (https://covid19-hpc-consortium.org). C’est un effort public-privé initié par plusieurs institution dont IBM visant à mettre la puissance de supercalculateurs à la disposition des chercheurs travaillant sur des projets liés à la COVID-19 pour les aider à identifier des thérapies potentielles à court terme pour les patients atteints par le virus.

Depuis son lancement en mars 2020, la capacité de calcul du Consortium a presque doublé pour atteindre 600 pétaflops (million de milliards d’opérations flottantes par secondes), contre 330 pétaflops en mars.

Ensemble, le Consortium a contribué à soutenir de nombreux projets de recherche, notamment comprendre combien de temps les gouttelettes respiratoires persistent dans l’air. Cette recherche d’une équipe de l’Université d’État de l’Utah a simulé la dynamique des aérosols à l’intérieur, offrant un aperçu de la durée pendant laquelle les gouttelettes respiratoires persistent dans l’air. Ils ont constaté que les gouttelettes provenant de la respiration persistent dans l’air beaucoup plus longtemps qu’on ne le pensait auparavant, en raison de leur petite taille par rapport aux gouttelettes de la toux et des éternuements. Un autre projet concerne la recherche sur la réutilisation de médicaments pour des traitements potentiels. Un projet d’une équipe de la Michigan State University a examiné les données d’environ 1600 médicaments approuvés par la FDA pour voir s’il existe des combinaisons possibles qui pourraient aider à traiter le COVID-19. Ils ont trouvé prometteurs au moins deux médicaments approuvés par la FDA: la proflavine, un désinfectant contre de nombreuses bactéries, et la chloroxine, un autre médicament antibactérien.

En France, une collaboration entre l’Institut Pasteur et IBM France est un autre exemple montrant le besoin d’accélération (43). Comme nous pouvons avoir des milliers de molécules candidates pour un traitement thérapeutique potentiel, l’utilisation de systèmes accélérés et du deep learning permet de filtrer les meilleures correspondances afin de proposer une sélection de composés chimiques capables de s’attacher aux protéines des agents pathogènes. En faisant cela, le processus de conception des médicaments pourrait être considérablement accéléré. L’IA aidera également les chercheurs à mieux profiler les interactions protéine-protéine impliquées dans le développement des pathologies, ainsi qu’à mieux comprendre la dynamique des infections dans les cellules humaines. Grâce à cette approche innovante, le cycle de développement d’un traitement thérapeutique pourrait être accéléré, passant potentiellement de plusieurs années à quelques mois, voire quelques semaines, tout en économisant des millions d’euros.

Les ordinateurs, les smartphones et leurs applications, internet que l’on utilise dans nos vies de tous les jours fonctionnent avec des 0 et des 1. Le binaire couplé à loi de Moore, un héritage de 50 ans, a permis de construire des systèmes robustes et fiables. Pendant 50 ans, nous avons vu des évolutions incrémentales, linéaires, pour avoir des gains de performance. Les prochaines années vont nous amener leurs lots d’innovations afin d’avoir des gains de performance notamment au niveau des matériaux, des processus de contrôle ou méthode de gravure : on parle de transistor tridimensionnel, lithographie extrême ultraviolet ou de nouveau matériaux comme le hafnium ou germanium. Le binaire continue donc à évoluer et va jouer un rôle central dans le centre de donnée de demain.

Récemment, IBM a fait un grand pas en avant dans la technologie des puces en fabriquant la première puce à 2 nm permettant de presser 50 milliards de transistors sur une puce de la taille d’un ongle. L’architecture peut aider les fabricants de processeurs à améliorer les performances de 45 % avec la même quantité d’énergie que les puces 7 nm actuelles, ou le même niveau de performances en utilisant 75 % d’énergie en moins. Les appareils mobiles dotés de processeurs basés sur 2 nm pourraient avoir jusqu’à quatre fois la durée de vie de la batterie de ceux dotés de chipsets 7 nm. Les ordinateurs portables bénéficieraient d’une augmentation de la vitesse de ces processeurs, tandis que les véhicules autonomes détecteront et réagiront plus rapidement aux objets. Cette technologie profitera à l’efficacité énergétique des centres de données, à l’exploration spatiale, à l’intelligence artificielle, à la 5G et 6G et à l’informatique quantique.

Source : IBM News Room (https://newsroom.ibm.com/2021-05-06-IBM-Unveils-Worlds-First-2-Nanometer-Chip-Technology,-Opening-a-New-Frontier-for-Semiconductors)

Malgré les commentaires sur les limites de la loi de Moore et les goulots d’étranglement des architectures actuelles, les innovations continuent et le binaire jouera un rôle central dans le centre de donnée de demain. Malgré tout, certains défis ne pourront pas être adressés uniquement avec le binaire. Pour ces défis, nous avons besoin de repenser l’informatique avec de nouvelles approches en nous inspirant de la nature comme la biologie et la physique.

Retrouvez le deuxième chapitre et le dernier parlant respectivement des systèmes biologiques et quantiques.

References

1. The Future of Computing: Bits + Neurons + Qubits. Green, Dario Gil and William M. J. arXiv:1911.08446 [physics.pop-ph].

2. ECRAM as Scalable Synaptic Cell for High-Speed, Low-Power Neuromorphic Computing. Jianshi Tang, Douglas Bishop, Seyoung Kim, Matt Copel, Tayfun Gokmen, Teodor Todorov, SangHoon Shin,Ko-Tao Lee, Paul Solomon, Kevin Chan, Wilfried Haensch, John Rozen. IEEE-IEDM (2018).

3. Neuromorphic computing using non-volatile memory. G. W. Burr, R. M. Shelby, A. Sebastian, S. Kim, S. Kim and e. al. 2016, Advances in Physics: X, Vol. vol. 2, pp. pp. 89–124.

4. TrueNorth: Accelerating From Zero to 64 Million Neurons in 10 Years. al, M. V. DeBole et. no. 5, May 2019, Computer, Vol. vol. 52, pp. pp. 20–29.

5. A Symbolic Analysis of Relay and Switching Circuits. Shannon, Claude E. s.l. : Massachusetts Institute of Technology, Dept. of Electrical Engineering, 1940.

6. A Mathematical Theory of Communication. Shannon, Claude E. p. 379–423 and 623–656, s.l. : Bell System Technical Journal, 1948, Vol. vol. 27.

7. The Mathematical Theory of Communication. Claude E. Shannon, Warren Weaver. Urbana, Illinois : The University of Illinois Press, 1949.

8. Molecular digital data storage using DNA. Luis Ceze, Jeff Nivala, Karin Strauss. s.l. : Nat Rev Genet , 2019, Vol. 20.

9. IBM Z mainframe capabilities. [En ligne] https://www.ibm.com/it-infrastructure/z/capabilities?cm_mmc=OSocial_Twitter-_-Systems_Systems+-+Cross-_-WW_WW-_-Zstats-87percent&linkId=72022252&fbclid=IwAR3gti8qo5F5APjqjMoKFS3LmS0WwiKqZ6fejABlK3w6t7QJLW69CP0ZpM8.

10. Peng, Tony. AI Doubling Its Compute Every 3.5 Months. [En ligne] https://syncedreview.com/2018/05/17/ai-doubling-its-compute-every-3-5-months/.

11. The discovery of dendritic spines by Cajal. Yuste, Rafael. s.l. : Front Neuroanat, 2015.

12. Gradient-based learning applied to document recognition. Y. LeCun, L. Bottou, Y. Bengio and P. Haffner. 1998, Proceedings of the IEEE, Vol. vol. 86, pp. pp. 2278–2324.

13. Deep learning with limited numerical precision. S. Gupta, A. Agrawal, K. Gopalkrishnan and P. Narayanan. 2015, International Conference on Machine Learning.

14. PACT: PARAMETERIZED CLIPPING ACTIVATION FOR QUANTIZED NEURAL NETWORKS. Jungwook Choi, Zhuo Wang, Swagath Venkataramani, Pierce I-Jen Chuang, Vijayalakshmi Srinivasan, Kailash Gopalakrishnan. 17 Jul 2018, arXiv:1805.06085v2 [cs.CV] .

15. The next generation of deep learning hardware: Analog computing. W. Haensch, T. Gokmen and R. Puri. 2018, Proceedings of the IEEE, Vol. vol. 107, , pp. pp. 108–122.

16. Equivalent- accuracy accelerated neural-network training using analogue memory. S. Ambrogio, P. Narayanan, H. Tsai, R. Shelby, I. Boybat and e. al. 2018, Nature, Vol. vol. 558, pp. pp. 60–67.

17. Weight programming in DNN analog hardware accelerators in the presence of NVM variability. C. Mackin, H. Tsai, S. Ambrogio, P. Narayanan, A. Chen and G. W. Burr. 2019, Advanced Electronic Materials, Vol. vol. 5, p. p. 1900026.

18. Neuromorphic computing using non-volatile memory. G. W. Burr, R. M. Shelby, A. Sebastian, S. Kim, S. Kim and e. al. 2016, Advances in Physics: X, Vol. vol. 2, pp. pp. 89–124.

19. Multilevel-Cell Phase-Change Memory: A Viable Technology. 6(1), 87–100, 2016., IEEE J. Emerging and Selected Topics in Circuits and Systems .

20. Recent Progress in Phase-Change Memory Technology. G.W. Burr, M.J. Brightsky, A. Sebastian, H.-Y. Cheng, J.-W. Wu, S. Kim, N.E. Sosa. N. Papandreou, H.-L. Lung, H. Pozidis, E. Eleftheriou, C.H. Lam. IEEE J. Emerging and Selected Topics in Circuits and Systems, Vol. 6(2), 146–162, 2016.

21. Neuromorphic computing with multi-memristive synapses. Irem Boybat, Manuel Le Gallo, S. R. Nandakumar, Timoleon Moraitis, Thomas Parnell, Tomas Tuma, Bipin Rajendran, Yusuf Leblebici, Abu Sebastian & Evangelos Eleftheriou. s.l. : Nature Communications , 2018, Vol. 9.

22. A million spiking-neuron integrated circuit with scalable communication network and interface. al., Paul A. Merolla et. Issue 6197, pp. 668–673, s.l. : Science, 2014, Vol. Vol. 345, .

23. TrueNorth: Accelerating From Zero to 64 Million Neurons in 10 Years. al., Michael V. DeBole et. pp. 20–28, s.l. : IEEE Computer, 2019, Vol. 52.

24. Feynman, Richard. s.l. : International Journal of Theoretical Physics, 1982, Vol. Vol 21, Nos. 6/7, 1982.

25. Nay, Chris. IBM Opens Quantum Computation Center in New York; Brings World’s Largest Fleet of Quantum Computing Systems Online, Unveils New 53-Qubit Quantum System for Broad Use. [En ligne] https://newsroom.ibm.com/2019-09-18-IBM-Opens-Quantum-Computation-Center-in-New-York-Brings-Worlds-Largest-Fleet-of-Quantum-Computing-Systems-Online-Unveils-New-53-Qubit-Quantum-System-for-Broad-Use.

26. Validating quantum computers using randomized model circuits. Andrew W. Cross, Lev S. Bishop, Sarah Sheldon, Paul D. Nation, and Jay M. Gambetta. s.l. : arXiv:1811.12926v2 [quant-ph], 2019.

27. Hardware-efficient variational quantum eigensolver for small molecules and quantum magnets. Abhinav Kandala, Antonio Mezzacapo, Kristan Temme, Maika Takita, Markus Brink, Jerry M. Chow & Jay M. Gambetta. pages242–246, s.l. : Nature , 2017, Vol. volume 549, .

28. Computational Investigations of the Lithium Superoxide Dimer Rearrangement on Noisy Quantum Devices. Qi Gao, Hajime Nakamura, Tanvi P. Gujarati, Gavin O. Jones, Julia E. Rice, Stephen P. Wood, Marco Pistoia, Jeannette M. Garcia, Naoki Yamamoto. s.l. : arXiv:1906.10675 [quant-ph], 2019.

29. Quantum risk analysis. Stefan Woerner, Daniel J. Egger. s.l. : npj Quantum Information , 2019, Vol. volume 5.

30. Quantum Generative Adversarial Networks for Learning and Loading Random Distributions. Christa Zoufal, Aurélien Lucchi, Stefan Woerner. s.l. : arXiv:1904.00043 [quant-ph].

31. Amplitude estimation without phase estimation. Yohichi Suzuki, Shumpei Uno, Rudy Raymond, Tomoki Tanaka, Tamiya Onodera, Naoki Yamamoto. s.l. : Quantum Information Processing, 19, 75, 2020.

32. Credit Risk Analysis using Quantum Computers. Daniel J. Egger, Ricardo Gacía Gutiérrez, Jordi Cahué Mestre, Stefan Woerner. s.l. : arXiv:1907.03044 [quant-ph].

33. Option Pricing using Quantum Computers. Nikitas Stamatopoulos, Daniel J. Egger, Yue Sun, Christa Zoufal, Raban Iten, Ning Shen, Stefan Woerner. s.l. : arXiv:1905.02666 [quant-ph].

34. Improving Variational Quantum Optimization using CVaR. Panagiotis Kl. Barkoutsos, Giacomo Nannicini, Anton Robert, Ivano Tavernelli, Stefan Woerner. s.l. : arXiv:1907.04769 [quant-ph].

35. Supervised learning with quantum-enhanced feature spaces. Vojtěch Havlíček, Antonio D. Córcoles, Kristan Temme, Aram W. Harrow, Abhinav Kandala, Jerry M. Chow & Jay M. Gambetta. pages 209–212, s.l. : Nature , 2019, Vol. volume 567.

36. Analysis and synthesis of feature map for kernel-based quantum classifier. Yudai Suzuki, Hiroshi Yano, Qi Gao, Shumpei Uno, Tomoki Tanaka, Manato Akiyama, Naoki Yamamoto. s.l. : arXiv:1906.10467 [quant-ph].

37. Quantum Chemistry Simulations of Dominant Products in Lithium-Sulfur Batteries. Julia E. Rice, Tanvi P. Gujarati, Tyler Y. Takeshita, Joe Latone, Mario Motta, Andreas Hintennach, Jeannette M. Garcia. s.l. : arXiv:2001.01120 [physics.chem-ph], 2020.

38. [En ligne] https://www.research.ibm.com/frontiers/ibm-q.html.

39. [En ligne] https://news.exxonmobil.com/press-release/exxonmobil-and-ibm-advance-energy-sector-application-quantum-computing.

40. https://spectrum.ieee.org/tech-history/cyberspace/celebrating-claude-shannon

41. https://newsroom.ibm.com/2019-09-12-IBM-Unveils-z15-With-Industry-First-Data-Privacy-Capabilities

42. https://newsroom.ibm.com/Gordon-Bell-Prize-Winners-Embrace-Summit-to-Advance-COVID-19-Research

43. https://fr.newsroom.ibm.com/announcements?item=123479

--

--

Xavier Vasques

CTO and Distinguished Data Scientist, IBM Technology, France Head of Clinical Neurosciences Research Laboratory, France