RTFlash

Edito : INTEL 1971 : 2500 transistors sur le premier microprocesseur. En 2030, mille milliards de transistors sur une puce

Considéré à juste titre comme l'une des plus grandes inventions de tous les temps, le transistor (de l'anglais Transfert Resistor), composant de base de toute l'électronique moderne, a été mis au point en1947 par les Américains John Bardeen, William Shockley et Walter Brattain. L'invention du transistor a été un immense progrès, mais les premiers ordinateurs sont apparus sur le marché avant cette invention. En effet, les premiers ordinateurs, qu'il s'agisse du Colossus Mark 1 (1943), ou de l'ENIAC (1946), étaient conçus à base de tubes à vide. Le Colossus en comptait 2400 et l'ENIAC en possédait 18 000, ce qui lui permettait d'effectuer 5000 opérations par seconde. Mais n'en déplaise à nos amis Anglais et Américains, le premier ordinateur alimenté électriquement et programmable en calcul binaire et à virgule flottante fut le célèbre Z3, conçu par le génial ingénieur allemand Konrad Zuss, en 1941.

Après le transistor, puis le circuit intégré (1958), l'électronique et l'informatique connurent un nouvelle rupture technologique majeure avec le premier microprocesseur d’Intel (unité centrale d'information), sorti en 1971, qui comptait 2500 transistors (une prouesse pour l'époque) et allait révolutionner l'informatique, les télécommunications et le multimédia en permettant notamment l'incroyable essor des ordinateurs personnels, apparus en 1981, des téléphones mobiles, apparus en 1983, et de l'Internet, ouvert au grand public en 1989.

Mais le plus extraordinaire a été l'incroyable progression, sans équivalent dans toute l'histoire technologique, de la miniaturisation des puces électroniques : les puces les plus puissantes actuellement réalisables en laboratoire (qui arriveront sur le marché en 2025) sont gravées avec des pistes de 2 nanomètres et comptent plus de 50 milliards de transistors, ce qui veut dire que la fameuse loi édictée par Gordon Moore en 1965, prévoyant un doublement tous les deux ans du nombre de transistors implantables sur une seule puce, a été globalement respectée depuis plus d'un demi-siècle.

Ces futures puces à 2 nanomètres auront des performances 45 % plus élevées, pour une consommation d’énergie 75 % inférieure, par rapport aux puces de 7 nm les plus avancées d’aujourd’hui. Elles permettront d’accroître sensiblement la puissance et l'autonomie des appareils numériques, portables, mobiles ou tablettes. On mesure mieux le chemin parcouru grâce à cette prodigieuse descente vers l'infiniment petit, quand on sait qu'en 2022, on comptait environ 6,5 milliards d'appareils numériques en service dans le monde, (ordinateurs portables et de bureau, tablettes et téléphones mobiles), pour 5,3 milliards d’utilisateurs réguliers du Net, ce qui veut dire que les deux tiers de la population mondiale sont à présent connectés au Web...

Et ce chiffre va s'accélérer car, en parallèle à l'essor des mobiles et ordinateurs connectés au Net, le nombre de téléviseurs connectés au Web progresse à présent encore plus rapidement : on estime en effet que dans trois ans, plus de la moitié des deux milliards de foyers dans le monde possédera un téléviseur raccordé à l'Internet. Il y a un an, Samsung a été le premier a sortir la première puce gravée à 3 nanomètres (3 milliardièmes de mètres), en combinant deux innovations technologiques, l'emploi de la litho-gravure par rayonnement ultraviolet extrême, et des nouveaux transistors de type GAAFET (Gate-All-Around Transistors), constitués d’une grille qui entoure complètement le canal de conduction des électrons, contrairement aux transistors finFET. Ce canal se compose de 3 couches de nanofeuilles de silicium empilées les unes au-dessus des autres. Et Samsung ne compte pas s'arrêter en si bon chemin et annonce déjà les premières puces gravées à 1,4 nanomètre (ou 14 Angström) en 2027.

Le taïwanais TSMC, qui est devenu leader mondial des semi-conducteurs en assurant la production de la moitié des puces vendues sur la planète, n'est pas en reste et a annoncé fin 2022 qu'il avait démarré la production de masse de puces gravées en 3 nanomètres, qui seront présentes dans les appareils mobiles. Ces transistors de 3 nm devraient permettre de diminuer d'un tiers la consommation d'énergie par rapport à la gravure en 5 nm. Le fondeur produira cette nouvelle gamme dans le sud de Taïwan, dans une usine pour laquelle il a investi la somme faramineuse de 60 milliards de dollars. TSMC qui veut garder sa suprématie mondiale va par ailleurs investir 40 milliards de dollars dans ses deux futures usines américaines destinées également à la production de ces puces gravées en 3 nanomètres et prévoit également une usine européenne pour fabriquer ces nouveaux composants stratégiques d'ici 2026.

L'américain Intel, longtemps leader dans ce domaine des microprocesseurs, entend également rester dans cette course technologique mondiale et a présenté fin 2022, à l'occasion du Salon International de l’Électronique, une ambitieuse feuille de route fixant ses nouveaux objectifs pour la décennie à venir. Intel compte notamment s'appuyer sur plusieurs innovations majeures, dont une nouvelle technologie d’encapsulation 3D, QMC (Quasi Monolitic Chip), qui va permettre de multiplier par 10 l'efficacité énergétique, et de nouveaux types de transistor utilisant un matériau de canal 2D de seulement 3 atomes d’épaisseur...

En combinant ces avancées techniques, Intel vise en 2024 la maîtrise de la gravure dite « Intel 20A », qui ne fait plus référence au nanomètre mais à l’angström, c'est-à-dire à une unité de mesure qui correspond à un dixième de nanomètre (soit un dix milliardième de mètre). L'Intel 20A vise donc à une gravure en 2 nm, avant de descendre à 1,8 nanomètre (18 Angström) en 2025, avec le procédé "Intel 18A". Intel a également présenté un nouveau type de mémoire ferroélectrique 3D qui peut être empilé verticalement sur une puce, au-dessus des transistors. Le fondeur américain a enfin précisé qu'il n'était pas loin de maîtriser la production d'un transistor révolutionnaire, "non-volatil", capable de conserver toutes ses données même sans alimentation électrique. Au final, Intel prévoit comme nouvelle ligne d'horizon technologique l'intégration, en 2030, de mille milliards de transistors sur une seule puce, de quoi continuer à respecter la loi de Moore au moins jusqu'à cette échéance...

Du coté des mémoires vives, composants indispensables – et complémentaires du transistor – aux progrès de l'électronique et de l'informatique, les avancées ne cessent également de se multiplier : récemment, Samsung a annoncé avoir réalisé la première démonstration au monde de calcul à l'aide d’une mémoire magnétique Mram (Magnetoresistive Random Access Memory (Voir Nature). Inventée en 1984 par le Dr. Arthur Pohm et le Dr. Jim Daughton, qui travaillaient pour Honeywell, cette mémoire à magnétorésistance non volatile utilise l’orientation magnétique, grâce à une paire de plaques métalliques ferromagnétiques séparées par une fine couche de matériau isolant, pour stocker les bits d'information. Ce type de mémoire présente l'immense avantage de pouvoir traiter en parallèle les données, ce qui lui confère une rapidité mille fois plus grande que les mémoires vives actuelles. Enfin, cette mémoire magnétique est permanente et conserve donc ses données en toutes circonstances, comme les disques durs d'ordinateurs.

Je pourrais également évoquer bien d'autres avancées remarquables qui devraient permettre de prolonger pendant encore bien des années la loi de Moore. C'est par exemple le cas de la percée réalisée il y a deux ans par des scientifiques de l’Institut des sciences chimiques de Rennes qui ont découvert une molécule organométallique qui pourrait révolutionner la nanoélectronique. Cette molécule photo-commutable à base de ruthénium permet une modulation de la conduction électrique sous le simple effet d'un flux lumineux. Cette approche totalement novatrice permet à la fois de contrôler le sens de passage du courant dans le transistor et de moduler son intensité à volonté (jusqu’à deux ordres de grandeur) par application d’un champ électrique. Et il est également possible d’activer ou désactiver ces propriétés par simple photo-isomérisation (transformation chimique de la molécule sous l'effet d'une énergie lumineuse suffisante) de cette molécule.

Il y a un an, des chercheurs de l’Université Purdue (Indiana), dirigés par Shriram Ramanathan, ont présenté une plate-forme artificielle qui vise à permettre aux futures machines de reconfigurer elles-mêmes leurs processeurs, de façon à les doter d'une véritable capacité d'autoapprentissage (Voir Purdue University). Cette technologie révolutionnaire repose sur le contrôle fin de la concentration d'atomes d'hydrogène à l'intérieur d'une petite pièce rectangulaire composée de nickelate de pérovskite.

Une autre équipe de l’école d’ingénierie et des sciences appliquées de l’Université de Pennsylvanie a récemment créé un dispositif photonique qui permet le traitement programmable de l’information sur la puce sans lithographie, en utilisant des lasers qui émettent la lumière directement sur une plaquette de semi-conducteur, sans avoir besoin de définir des chemins lithographiques. Cette approche futuriste combine les avantages de la vitesse de la photonique et une flexibilité incomparable pour les applications de l’intelligence artificielle (Voir Penn Engineering Today).

Enfin, il y a quelques semaines, des chercheurs du MIT ont annoncé qu'ils avaient mis au point un procédé à basse température qui permet d'intégrer directement des transistors en matériaux 2D sur des circuits en silicium sans les endommager. Ils ont réussi à faire pousser une couche de matériaux 2D de type disulfure de molybdène sur une plaque de silicium (CMOS wafer) de 20 centimètres en moins d'une heure, contre une journée par les méthodes actuelles (Voir MIT). Cette avancée ouvre la voie à de nouveaux process industriels permettant d'empiler plusieurs couches de transistors 2D et d'intégrer ces derniers à de multiples matériaux flexibles, tels que les polymères, les textiles ou même du papier.

Mais, me direz-vous, est-il vraiment nécessaire de poursuivre cette course effrénée à la miniaturisation électronique et de disposer d'ordinateurs toujours plus puissants, au prix de dépenses qui se comptent à présent en centaines de milliards de dollars ? Et bien oui, plus que jamais, car dans de nombreux domaines scientifiques, chercheurs et ingénieurs sont confrontés à des défis considérables qui ne pourront être surmontés qu'en disposant d'une puissance de calcul à la fois bien plus grande et plus accessible qu’aujourd’hui. Il y a quelques jours, des chercheurs de l'Université Mac Master (Ontario-Canada) ont par exemple utilisé un algorithme d'intelligence artificielle pour passer au crible en quelques heures plus de 6 000 molécules. Ils ont ensuite retenu et testé 240 substances chimiques et ont finalement identifié neuf antibiotiques, dont un très puissant, initialement connu comme médicament potentiel contre le diabète, qui s'est avéré efficace et très sélectif contre la redoutable bactérie Actinetobacter baumanii , responsable de graves infections chez les patients fragiles et hospitalisés (Voir Phys.org). Mais ce criblage informatique nécessite une énorme puissance de calcul et demain la médecine sera confrontée à de nouveaux défis qui requerront des puissance de calcul hors d'atteinte pour la recherche pour l'instant, comme la cartographie de l'ensemble des protéines humaines et de leurs interactions, l'atlas des cent mille milliards de cellules nous constituant, ou encore la conception et la fabrication, en quelques jours, de molécules thérapeutiques personnalisées pour lutter contre le cancer...

D'autres domaines, comme la météorologie, la climatologie et la géologie ont également besoin de disposer de nouvelles ressources en calcul pour pouvoir, demain, prévoir de manière plus fiable et précise les événements extrêmes (tremblements de terre, canicules, ouragans, orages, tempêtes) mais aussi modéliser de manière plus complète la complexité du fonctionnement énergétique de la Terre, pour lutter plus efficacement contre le réchauffement climatique en cours. En matière d'énergie, nous aurons également besoin de ces énormes puissances de calcul pour mettre au point de nouveaux matériaux et structures qui permettront de développer des éoliennes, hydroliennes et films solaires bien plus efficaces et durables qu'aujourd'hui, mais aussi pour explorer des voies nouvelles de maîtrise de la fusion thermonucléaire ou de la géothermie profonde et pour imaginer des véhicules propres, rapides, recyclables et à très faible consommation d'énergie.

Pour relever tous ces défis scientifiques, technologiques, industriels mais aussi écologiques et sociétaux, la recherche devrait heureusement disposer d'ici 2030 (sans tenir compte de l'arrivée de l'informatique quantique, mais seulement dans certains domaines particuliers et pour certains types de calcul précis), grâce aux nombreuses avancées que j'ai évoquées, de machines dix fois plus puissantes qu'aujourd'hui, dépassant la puissance de 100 exaflops (cent milliards de milliards d'opérations par seconde). Il faut souhaiter que dans cette compétition absolument stratégique, largement dominée par l'Asie et les États-Unis, l'Europe se donne enfin les moyens de concevoir et de produire elle-même les composants électroniques du futur qui seront à la base de cet nouvelle révolution numérique de l'Internet des objets, de l'informatique ubiquitaire, de l'intelligence artificielle et des robots autonomes.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top