RTFlash

Jusqu'où l'ordinateur calculera-t-il?

En avril 1965, dans un article publié dans la revue Electronics Magazine, Gordon Moore (qui dirige alors la recherche chez Fairchild Semiconductors et qui cofondera avec Robert Noyce la firme Intel en 1968) remarque que, depuis l'invention du circuit intégré (en 1958), on observe un doublement annuel du nombre de transistors par unité de surface. Il prédit que ce doublement durera encore dix ans. Sa prévision se réalisera assez bien ; pourtant, en 1975, dans un exposé où on lui demande de proposer un nouveau pronostic, G. Moore, analysant les difficultés technologiques présentes, annonce cette fois un doublement du nombre de transistors par unité de surface tous les deux ans (au lieu de tous les ans). Notons qu'il ne s'agit pas, bien sûr, d'une loi mathématique ou physique, mais d'une simple règle hypothétique permettant l'évaluation de l'avenir des performances informatiques. Ces performances résultent d'une combinaison de facteurs sociaux, économiques, technologiques et physiques : les succès des techniques informatiques auprès du public (facteur social) et la concurrence entre firmes (facteur économique) déterminent les bénéfices de l'industrie des semi-conducteurs, qui fixent à leur tour l'investissement en recherche de cette industrie (facteur technologique), lui permettant de surmonter les obstacles qu'oppose la réalité matérielle (facteur physique). Un doublement de performance tous les 18 mois est équivalent à une multiplication par 1 000 tous les 15 ans (dix doublements valent exactement une multiplication par 1 024) et à une multiplication par un million tous les 30 ans. Si les performances des voitures avaient suivi le même rythme, nous roulerions aujourd'hui un million de fois plus vite qu'en 1970, soit environ à 30 000 kilomètres/seconde... et dans six ans nous dépasserions la vitesse de la lumière ! G. Moore, voyant que chaque prédiction concernant l'évolution de l'informatique lui est attribuée dit avec humour qu'il est l'inventeur de la fonction exponentielle comme Al Gore est l'inventeur d'Internet (Gordon Moore est républicain !).

Menons un petit calcul pour tester la loi de 1975. Nous sommes passés de 2 300 transistors pour le Intel-4004 de 1971, à 42 millions de transistors pour le Pentium 4 disponible depuis novembre 2000. Cela correspond à un facteur multiplicatif de 18 260 en 29 ans, soit une multiplication par 18 2602/29 = 1,967 tous les deux ans, valeur remarquablement proche du facteur 2 du second pronostic de Moore. L'augmentation de densité prédite s'est précisément réalisée entre 1971 et aujourd'hui, mais, comme Moore le fait remarquer, sa prophétie était «auto-réalisatrice» : l'industrie (et lui-même en particulier comme acteur de premier plan de cette industrie) s'est fondée sur elle pour fixer ses objectifs et ses plans d'investissements. Gordon Moore, aujourd'hui milliardaire et âgé de 71 ans, a évalué que les usines de circuits produisent chaque année plus de transistors (1017 environ), qu'il n'existe de fourmis sur terre (1016, nombre proposé par le naturaliste Edward Wilson). Ramené au nombre d'humains sur terre, on peut aussi noter que, chaque année, plus de dix millions de transistors sont dessinés pour chaque être humain : les inventeurs du transistor de 1947 (W. Shockley, W. Braittain, J. Barden) peuvent être fiers d'eux ! Gordon Moore prévoit maintenant que sa loi ne restera pas indéfiniment vraie. Il pense que, dans les dix prochaines années, elle sera satisfaite, mais au-delà, il prédit un ralentissement, le rythme se réduisant à un doublement du nombre de transistors par unité de surface tous les quatre ans (donc un doublement de performance tous les trois ans environ). Si l'on s'en tient au perfectionnement des techniques de gravure optique des puces, on devra utiliser des longueurs d'onde de plus en plus courtes. Or, au mieux, on ne peut graver des traits qu'avec une précision de l'ordre de la longueur d'onde de la lumière utilisée. Comme plus rien n'est transparent pour les longueurs d'onde très courtes, on ne peut plus concevoir et réaliser des lentilles pour contrôler la gravure au-delà d'une limite qu'on n'est pas loin d'atteindre. Aujourd'hui ,les longueurs d'onde utilisées se situent entre l'ultraviolet et les rayons X. Le récent Pentium 4, par exemple est dessiné avec une gravure de 180 nanomètres. On étudie déjà ce que l'on va pouvoir faire avec des longueurs d'onde de 130 nanomètres et l'on envisage pour la prochaine décennie des longueurs d'onde de 15 nanomètres, qui semblent la limite des méthodes actuelles. Quant aux projets de développements de calculateurs quantiques ou à ADN étudiés dans certains laboratoires de recherche, Gordon Moore, comme la plupart des spécialistes, pense que cela ne pourra jouer un rôle que dans un avenir lointain, et en tout cas pas dans les dix ans à venir. Lorsqu'on observe certains aspects particuliers des performances informatiques, on découvre que la loi de Moore (standard) a été récemment dépassée dans trois domaines où l'augmentation des performances a été plus rapide que le fameux doublement tous les dix-huit mois. Ces trois domaines sont l'affichage graphique, le stockage sur disques magnétiques et la capacité des fibres optiques. Fin 1998, pour 250 $, on pouvait disposer d'une carte graphique traitant un million de polygones par seconde et produisant donc de belles animations 3-D en images de synthèse. Les spécialistes annoncent, pour un prix équivalent, des cartes capables d'afficher 100 millions de polygones par seconde à la fin 2001. Le gain en performance sera donc d'un facteur 100 en trois ans, ce qui correspond à un facteur 10 en 18 mois, bien plus que le doublement habituel. L'explication de ces progrès accélérés se trouve dans le succès commercial des jeux utilisant les simulations 3-D qui ont conduit à la mise au point de puces spécialisées; celles-ci bénéficient à la fois des progrès d'intégration (le nombre de transistors par unité de surface) de la fréquence plus élevée des processeurs (ces deux facteurs conduisent au doublement tous les 18 mois), et tirent aussi avantage d'une meilleure conception des algorithmes et du dessin optimisé des circuits. C'est là que les progrès dans la maîtrise mathématique et le savoir-faire spécialisé sont responsables de ce dépassement des prévisions : non seulement l'électronicien avance, mais aussi le mathématicien et l'informaticien. Dans le domaine du stockage des données sur disques magnétiques, la loi de Moore s'est appliquée sans fantaisie jusqu'en 1998, mais, depuis, suite à des avancées techniques accélérées (ici, il ne s'agit plus de densité de transistors, mais de maîtrise des constituants magnétiques), l'augmentation de la capacité de stockage est multipliée par 3,5 tous les 18 mois, beaucoup plus que ce que prévoit la loi de Moore standard. Les disques durs d'un teraoctet (10 12 octets, c'est-à-dire mille milliards de caractères) dont nous allons pouvoir disposer d'ici peu permettront de stocker l'équivalent d'un million de livres de 200 pages, ou 400 cassettes vidéo vhs, ou encore toutes les conversations d'une personne durant toute sa vie!Enfin, dans le domaine du transport optique d'informations on assiste, grâce au procédé de multiplexage (passage simultané de plusieurs lumières de longueurs d'onde différentes dans la même fibre) à un doublement de capacité tous les six mois (multiplication par 8 tous les 18 mois) largement supérieur encore à ce qu'une traduction directe de la loi de Moore standard laisse espérer. Ces accélérations dans des domaines particuliers seront peut-être momentanées, et la loi de Moore d'un doublement de performance tous les 18 mois semble pour l'instant le repère général le plus fiable pour envisager l'avenir des performances informatiques dans les dix prochaines années. Pour sa part, Ray Kurzweil a adopté dans son étude futuriste l'unité «instruction par seconde pour 1 $». Il constate une évolution allant de 10-8 en 1900 à 105 en 2000, soit une augmentation de puissance - pour une somme donnée - d'un facteur 1013, ce qui correspond à un accroissement moyen de 35 pour cent par an, équivalant à un doublement tous les 2,4 ans. Au cours du XXe siècle, une multitude de technologies de calcul ont défilé : machines mécaniques (à base d'engrenages et de tringles métalliques), puis machines électromécaniques (assemblage d'interrupteurs commandés par électroaimants - appelés «relais» - et connectés), puis machines électroniques (construites avec des kilomètres de fils et des milliers de lampes), puis machines à transistors isolés (fichés individuellement sur des cartes), et enfin machines à circuits intégrés (comportant des transistors dessinés simultanément par lithographie optique par centaines, puis par millions). Les transitions technologiques se sont non seulement faites à chaque fois que cela a été nécessaire, sans que jamais la capacité de calcul ne stagne, mais, en fait, les transitions ont conduit à un progrès qui s'est légèrement accéléré, passant d'un doublement de performances tous les trois ans au début du XXe siècle, à un doublement tous les ans aujourd'hui. Cette évolution technologique va-t'elle déboucher sur des machines capables de rivaliser avec le cerveau humain ? Plusieurs méthodes ont été utilisées pour mesurer la puissance de calcul d'un cerveau humain, et ont donné lieu à de nombreuses dissertations conduisant à une estimation qui oscille entre 1013 et 1019 instructions par seconde. Cette grande imprécision ne fait que refléter l'ignorance où nous sommes encore aujourd'hui quant au fonctionnement détaillé du cerveau humain et illustre la difficulté qu'il y a à comparer des puces électroniques et des neurones.Du côté des machines, le plus puissant ordinateur du monde aujourd'hui, est un ordinateur ibm destiné à la simulation d'essais atomiques au Lawrence Livermore Laboratory en Californie, aux États-Unis. Il dispose d'une puissance d'environ 1013 instructions par seconde. La plus puissante machine, avec ses 1013 instructions par seconde, en est donc précisément arrivée aux estimations basses de puissance du cerveau humain. Si le rythme du progrès se maintient, en 2015, l'ordinateur le plus puissant du monde atteindra 1016 instructions par seconde et, en 2030, 1019 instructions par seconde correspondant à l'estimation la plus haute proposée pour la puissance du cerveau humain qui serait ainsi, selon toute vraisemblance, largement dépassée à cette date. Ray Kurzweil de son côté évalue avec plus de précision (mais en prenant sans doute plus de risques) qu'un ordinateur de 1 000 $ atteindra la puissance du cerveau humain en 2030 (et atteindra la puissance de tous les cerveaux humains réunis en 2060). Tout semble assez cohérent, et c'est là une grande nouvelle : pour ce qui est de la puissance de calcul, l'espèce humaine est entrée dans l'ère où elle construit des machines égalant ses propres capacités. Aurons-nous pour autant des machines intelligentes ? L'idée un peu trop simple qu'imiter l'intelligence n'est qu'une question matérielle et technique n'est pas nouvelle. En 1950, le célèbre mathématicien anglais Alan Turing prédisait qu'en l'an 2000, avec un ordinateur disposant d'une mémoire d'un milliard de chiffres binaires (pour lui semble-t-il, plus importante que la puissance de calcul et aujourd'hui largement dépassée), nous obtiendrions une machine imitant assez correctement le comportement humain. Cela n'est pas le cas : la «machine de Turing est encore assez bête». Plus proche de nous, Herbert Simon prévoyait, en 1965, qu'en 1985 les machines seraient capables de faire n'importe quel travail qu'un homme réalise. Là encore, la prédiction était trop optimiste. Le débat sur l'intelligence artificielle, qui a déjà fait couler beaucoup d'encre, n'est donc pas clos. Il entre cependant dans une nouvelle phase. La charge de la preuve - qui était dans le camp des anti-IA, car à défaut de machines puissantes c'était à eux d'argumenter qu'on ne pourrait rien en faire - change de côté, et maintenant qu'une puissance comparable à celle du cerveau est disponible (ou sur le point de l'être), l'échec des tentatives pour rendre intelligentes nos machines prend une nouvelle signification. Les années qui viennent seront déterminantes.

Pour la science : http://www.pourlascience.com/

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

back-to-top