RTFlash

Matière

Edito : Physique quantique : L'étrangeté théorique nous conduit à la révolution technologique !

Même si elle reste très ésotérique pour le grand public, la mécanique quantique peut sans doute être considérée, avec la relativité générale, comme la plus grande avancée scientifique de toute l’histoire de l’Humanité, tant elle a bouleversé notre connaissance de la matière et au-delà notre conception du réel et de la nature. Il faut rappeler que c’est l’immense scientifique allemand Max Planck (prix Nobel de physique 1918) qui fut à l’origine de cette avancée majeure à la fin du XIXe siècle. En travaillant sur la question, encore énigmatique à l’époque, du rayonnement électromagnétique du corps noir, Planck formula en 1899 la célèbre constante qui porte son nom et à la fin de l’année 1900, il proposa devant la société de physique de Berlin la notion révolutionnaire de « quanta ».

Cette hypothèse postulait que les échanges d’énergie entre le rayonnement électromagnétique d’un corps noir et les parois du four utilisé pour chauffer ce corps, ne se faisaient pas de manière continue, comme le pensaient l’immense majorité des physiciens de l’époque, mais par paquets quantifiés et discontinus qui étaient toujours des multiples entiers d’une quantité minimale d’énergie. Albert Einstein comprit immédiatement l’immense portée de cette découverte et complétera cette théorie en 1905 pour décrire l’effet photoélectrique.

Il fallut cependant attendre décembre 1927 et le très célèbre congrès « Solvay », qui réunit à Bruxelles l’élite de la physique mondiale, pour que la théorie quantique telle que nous la connaissons aujourd’hui soit constituée, notamment grâce aux travaux d’une dizaine de physiciens de génie, parmi lesquels on retrouve Einstein, Bohr, De Broglie, Dirac, Schrödinger et Heisenberg. C’est toujours en 1927 qu’Heisenberg formula son célèbre principe d’incertitude qui montre qu’il est impossible de connaître simultanément et avec précision, la vitesse et la position d’une particule. Mais le plus surprenant, explique Heisenberg, c’est que cette impossibilité ne tient ni au caractère incomplet de la théorie quantique, ni à l’imperfection des instruments de mesure utilisés. Il s’agit bien d’une limite ontologique et épistémologique absolue à notre capacité de décrire et de connaître le réel.

Pour l’exprimer avec des mots simples, cette théorie quantique nous dit, qu’à l’échelle atomique, les différentes particules se comportent, selon la façon dont on les observe et les méthodes expérimentales que l’on utilise pour les détecter, tantôt comme des « objets » ponctuels et localisables dans le temps et l’espace, tantôt comme des ondes diffuses et immatérielles.

Il faut rappeler que bien avant la naissance de la physique quantique, un débat agitait depuis longtemps le monde scientifique à propos de la nature réelle de la lumière. En 1672, Isaac Newton proclama, à la suite d’une série d’expériences, que la lumière était bien composée de particules, qu’il nomma corpuscules. Mais, en 1801, le génial physicien anglais Thomas Young montra, dans sa célèbre expérience des « deux fentes », qu’un flux de lumière envoyée vers une paroi percée de deux minuscules fentes, ne provoquait pas deux taches lumineuses homogènes mais une alternance de bandes claires et sombres, appelées « franges d’interférences » par les physiciens et caractéristiques d’un phénomène ondulatoire. L’affaire semblait tranchée mais en 1923 Arthur Compton montra, en décrivant l’effet qui depuis porte son nom, que la propagation de la lumière ne peut être comprise que si l’on admet son caractère corpusculaire.

Cette période extraordinairement féconde pour la physique de l’entre-deux-guerres est également marquée par le célèbre débat scientifique et philosophique entre Albert Einstein et Niels Bohr. Le premier reste fondamentalement déterministe. Il considère que la physique quantique comporte des « variables cachées » et n’est donc pas complète. Bohr pense, lui, que la mécanique quantique offre bien une description complète de ce qu’on peut savoir du réel et qu’il est impossible de réduire la part de hasard dans cette connaissance.  

C’est à cette époque qu’Einstein et Bohr imaginent l’une de leurs plus célèbres expériences de pensée, celle de la « fente mobile ». De quoi s’agit-il ? En fait, les deux physiciens reprennent l’expérience historique de Thomas Young mais en la raffinant. Ils imaginent en effet qu’une des deux fentes soit mobile, comme attachée à un ressort, actionné par le passage d’un photon de lumière. Théoriquement, la quantité de mouvement transféré de la fente mobile par ce photon doit pouvoir être mesurée grâce au ressort.

Einstein considérait que ce dispositif très subtil permettrait, s’il était un jour techniquement réalisable, de mesurer uniquement la quantité de mouvement transférée, sans altérer la particule concernée et modifier son comportement. Selon lui, on constaterait alors que les franges d’interférences continueraient à être présentes. Reste qu’à l’époque, personne n’imaginait qu’il serait un jour possible de réaliser de manière fiable une telle expérience qui supposait, entre autres, que l’on puisse manipuler un par un des atomes… C’est pourtant cet exploit scientifique que vient de réaliser, fin 2014, à Saclay, sur le site du synchrotron « Soleil », l’équipe de Catalin Miron, en s’appuyant notamment sur les remarquables travaux menés depuis 15 ans par Serge Haroche. Pour mener à bien cette délicate expérience, les physiciens ont imaginé et conçu un dispositif extrêmement sophistiqué qui traduit fidèlement, au niveau microscopique, cette idée de transfert de quantité de mouvement entre la particule et la fente proposée par Einstein (Voir Nature Photonics).

Concrètement, les chercheurs sont parvenus à utiliser et à manipuler de manière très ingénieuse des molécules de dioxygène (O2) bombardées par des rayons X du synchrotron Soleil. Un photon entre alors en collision avec une de ces molécules de dioxygène en véhiculant une énergie bien précise (541,8 électronvolts). En absorbant ce photon, cette molécule est excitée avant de retrouver son état initial et d’émettre alors un électron. Dans ce cas, il est impossible de savoir lequel des deux atomes d’oxygène a émis l’électron et, en mesurant l’énergie de l’électron éjecté en fonction de l'angle d'émission, on constate la présence de franges d’interférence identiques à celles mises en évidence dans l’expérience de Young. En revanche, lorsque le faisceau d’énergie produit par le synchrotron est de 539 électronvolts, la molécule de dioxygène est brisée et l’un des deux atomes d’oxygène émet alors un électron. Mais dans ce cas, les physiciens peuvent parfaitement savoir de quel électron il s’agit en mesurant le recul de l’atome. Au final, ce remarquable dispositif expérimental reproduit fidèlement l’expérience de pensée d’Einstein et Bohr en permettant de savoir de manière très fiable par quelle fente la particule est passée dans l’expérience de Young.

Or, le résultat de cette expérience est sans appel : dans le cas où il est possible de déterminer, grâce à la mesure du recul (c’est-à-dire du transfert de quantité de mouvement), le chemin emprunté par l’électron, la figure d’interférence disparaît, contrairement à ce que prévoyait Einstein. Cette expérience confirme donc de manière très solide l’interprétation probabiliste de la physique quantique défendue par Bohr et Heisenberg et formalisée dans le principe de complémentarité qui veut qu’un objet ou système quantique ne peut en aucun cas être perçu simultanément sous ses deux aspects (corpusculaire ou ondulatoire) et prend toujours exclusivement l’une ou l’autre forme, en fonction du dispositif d’observation utilisé.

Cette « étrangeté quantique » est particulièrement déroutante car elle remet en cause frontalement les principes des postulats de la physique classique, notamment les principes de causalité et de localité. Une des conséquences particulièrement troublantes de la physique quantique est celle des « photons corrélés ». En effet, selon la théorie quantique, un photon ne se voit affecté d’une direction particulière qu’au moment où il est détecté et mesuré. Mais, plus troublant encore, à partir du moment où deux photons proviennent d’une même source, toute mesure sur l’un semble produire un effet qui influe instantanément sur la mesure de l’autre. 

Mais le plus étonnant dans cette observation est qu’elle ne dépend pas de la distance qui sépare les deux photos. Peu importe que ceux-ci soient distants de quelques centimètres ou de plusieurs millions d’années-lumière : à partir du moment où ils sont issus de la même source, leur « comportement » va rester à jamais « intriqué », c’est-à-dire lié, bien qu’il ne puisse y avoir aucun échange d’informations entre ces deux particules. Pour Einstein, il y avait là un paradoxe (le paradoxe EPR, du nom d’Einstein, Podolsky et Rosen) intenable qui montrait que la physique quantique ne pouvait pas être une description complète de la réalité car elle ne prenait pas, selon lui, en compte certaines « variables cachées » qui restaient à découvrir. Mais on le sait, s’appuyant sur les travaux du physicien irlandais John Bell, le physicien français Alain Aspect réalisa en 1982, à Orsay, une extraordinaire expérience dans laquelle il put montrer avec un haut degré de précision que des photons émis d’une même source se comportaient bien comme le prévoyait la mécanique quantique et restaient corrélés dans leur mesure, sans avoir besoin d’échanger d’information et indépendamment de la distance les séparant…

Mais on le sait, en sciences, une théorie, aussi solide soit-elle, ne peut jamais être considérée comme définitivement établie et complète. Elle doit constamment être soumise à des vérifications expérimentales de plus en plus raffinées et contraignantes. C’est ce que le grand philosophe des sciences Karl Popper a magistralement montré en proposant son principe de falsifiabilité. Des physiciens du CNRS et de l'Université Paris-Sud au Laboratoire Charles Fabry (CNRS/Institut d'Optique Graduate School), toujours sous la direction d’Alain Aspect, viennent cette fois de montrer, il y a quelques semaines, que la nature quantique des photons peut également être étendue aux particules de matière.

Dans cette nouvelle expérience, ces physiciens du Laboratoire Charles Fabry travaillaient sur des atomes complets d'hélium 4. Ils ont émis des paires d’atomes indiscernables, à partir d’un condensat de Bose Einstein contenant près de 100 000 atomes d'hélium 4. Autre prouesse, ces chercheurs ont réussi à contrôler à l’aide d’un faisceau laser les collisions entre particules afin de produire deux paires d’atomes d’Hélium 4 par minute.

Résultat : lorsque deux atomes identiques arrivent en même temps, ils repartent toujours ensemble, comme le font les photons et, de manière parfaitement conforme aux prévisions de la mécanique quantique. Le principe de complémentarité est totalement respecté puisque ces paires d’atomes sont, soit simultanément réfléchis, soit simultanément transmis (Voir Nature).

Au-delà de la confirmation des conséquences les plus étonnantes de la mécanique quantique, ces deux expériences récentes tout à fait remarquables, celle de Miron sur les photons et celle d’Aspect sur les atomes, constituent d’éclatantes démonstrations des progrès extraordinaires réalisés depuis quelques années dans la manipulation et le contrôle des sources atomiques au niveau quantique et montrent également que le lien entre avancées théoriques et progrès technologiques a changé de nature : désormais, les outils technologiques extrêmement puissants dont disposent les physiciens leur permettent de tester des hypothèses et théories en les soumettant à des vérifications expérimentales qui auraient été encore impensables il y a quelques années. Mais, dans l’autre sens, des ruptures théoriques majeures comme la physique quantique finissent toujours par produire des sauts technologiques qui auraient été inconcevables sans ces avancées conceptuelles parfois très dérangeantes.

En septembre 2014, l’équipe suisse, dirigée par Nicolas Gisin, a ainsi réussi à créer et à maintenir une paire de photons intriqués à une distance-record de 25 km. Dans cette expérimentation, les chercheurs sont parvenus, après destruction des photons transportés dans une fibre optique, à conserver et à transmettre leur état de polarisation dans un type particulier de cristal : l’orthosilicate d’yttrium dopé au néodyme. Comme le souligne Nicolas Gisin, « L’état quantique du photon est passé dans le cristal, donc dans de la matière, ce qui ouvre la voie à la réalisation de réseaux de communication quantique grande distance ».

Parallèlement aux réseaux de communications quantiques, l’informatique quantique progresse également à pas de géant. C’est ainsi qu’il y a quelques semaines, une équipe américaine de l’Université de Californie à Berkeley, dirigée par John Martinis et soutenue par Google, est parvenue à mettre au point une méthode algorithmique qui réduit sensiblement le nombre d’erreurs produit au cours du calcul quantique.

Microsoft, pour sa part, entend bien rester dans cette course technologique essentielle et explore une voie très intéressante, celle de la maîtrise d’un qbit « topologique », reposant sur l’utilisation d’une étrange particule, le fermion de Majorana, du nom du génial physicien italien mystérieusement disparu en 1938. Selon l’équipe de Microsoft, un ordinateur quantique utilisant seulement une centaine de type de qbits de ce type particulier de particule serait en mesure de réaliser des calculs d’une complexité très supérieure à ceux que peuvent aujourd’hui effectuer les superordinateurs les plus puissants.

En 1994, le grand scientifique John Eccles (prix Nobel 1963) publiait un essai remarquable intitulé « Evolution du cerveau et création de la conscience » dans lequel il formulait l’hypothèse d’un fonctionnement quantique de notre cerveau au niveau synaptique. Le grand physicien Roger Penrose pense pour sa part qu’au fil de l’évolution, l’homme serait parvenu à maitriser une propriété fondamentale de la physique quantique : la superposition d’états quantiques. C’est cette faculté qui lui permettrait, contre toute logique, d’être capable d’explorer un nombre énorme d’hypothèses en un temps limité.

Bien que ces hypothèses restent controversées et fassent l’objet d’âpres débats au sein de la communauté scientifique, elles n’en éclairent pas moins d’une lumière nouvelle les concepts de conscience, d’intelligence et d’information en les restituant dans toutes leurs dimensions physiques, biologiques et symboliques.

Le projet européen du cerveau humain, qui vise d'ici environ 2024 à simuler le fonctionnement du cerveau humain grâce à un superordinateur, permettra peut-être de jeter de nouveaux ponts théoriques inattendus entre physique quantique, information et conscience mais il est clair que, dès à présent, la théorie quantique, par sa puissance, sa richesse et sa diffusion toujours plus large dans tous les champs scientifiques a déjà bouleversé de manière radicale et irréversible le rapport de l’homme avec le réel et avec la Nature.

René TRÉGOUËT

Sénateur Honoraire

Fondateur du Groupe de Prospective du Sénat

Noter cet article :

 

Vous serez certainement intéressé par ces articles :

Recommander cet article :

  • ka

    16/04/2015

    Excellent article!
    J'ai trouvé l'essai de John Carew Eccles ( que je ne connaissait pas...) et je m'empresse d'aller combler cette lacune !
    Au plaisir de vous lire

  • nabildz31

    18/09/2015

    bonjours , je suis ingénieur en informatique et je cherche à comprendre et de trouver des explications à des phénomenes comme le : ( Laser, la Dualité Onde-Corpuscule , l'intrication Quantique, la superposition d'etat Quantique, ..etc )

    es que quelqu'un peut m'aider à comprendre c'est sujets svp

  • back-to-top