Home»Correspondants»Quel Prix Nobel de Physique pour 2012 (suite 1)

Quel Prix Nobel de Physique pour 2012 (suite 1)

0
Shares
PinterestGoogle+

 Quel Prix Nobel de Physique pour l’année 2012   (suite 1)

     Avant de reproduire ce deuxième article de la série ci-haut intitulée, portant sur les travaux des Prix Nobel de 2012, l’auteur est resté pour de bons moments à la croisée des chemins, en se posant la question : Comment arriver à synthétiser un article pour le public et au même temps lui préserver son contexte historique ainsi que sa notoriété scientifique. Il a été  de l’avis de tous les physiciens qui ont commenté l’événement, que les travaux théoriques et surtout expérimentaux de S. Haroche Prix Nobel de Physique 2012, sont venus pour réfuter une Ecole et s’accorder avec une autre, nées toutes les deux au début des années 1930. C’est dans ce sens que ces expériences viennent comme un prolongement  historique de l’expérience de pensée EPR, et concrétiser pour la première fois l’intrication quantique et le paradoxe métaphore du chat de Schrödinger avec des particules massives.

        Comme nous  nous trouvons à la veille du 10 décembre, date qui marquera les festivités d’attribution de ce Prix,  la lecture de cet article donnera certainement une idée du chemin parcouru pour mériter à une telle récompense.

      Le contexte historique en question nous met dans l’obligation d’initier cet article par les citations des deux meneurs principaux de l’Ecole de Copenhague et de l’Ecole EPR, celles  des plus virulentes des uns vis-à-vis des autres. Pour Einstein de l’Ecole EPR, «Quelque soit le sens attribué au mot complet, il semble nécessaire d’imposer  la condition suivante à une théorie complète : Tout élément de réalité physique doit correspondre à quelque chose qui apparaît dans la théorie. Si sans perturber  en aucune manière un système, nous pourrions prédire avec certitude la valeur d’une quantité physique, alors il existe un élément de réalité  correspondant à cette quantité physique. En conclusion nous sommes donc forcés de dire que la description de la réalité physique par la fonction d’onde est incomplète, car une description complète est régie par  les trois principes qui sont déterminisme, objectivité et complétude ».

     Bien évidemment, la physique quantique à travers ses six postulats, a renoncé à ces trois principes.

  Pour Bohr de l’Ecole de Copenhague, « Aucun phénomène physique n’est phénomène tant qu’il n’est pas un phénomène observé, ni le moment ni la position  d’une particule n’ont de réalité s’ils ne sont pas le résultat d’une mesure d’un instrument. La mesure est donc un acte irréversible, qui rend la réalité de l’objet étudié indissociable  de celle de l’instrument. De notre point de vue, la rédaction du critère de réalité physique  proposée par Einstein contient une ambigüité. Elle concerne le sens de l’expression : d’aucune manière le système »

   En résumé : Einstein (père de l’effet photoélectrique, de la relativité et du mouvement Brownien) a toujours été attaché à la vision objective de la réalité physique, car pour lui, les phénomènes observés par les physiciens existent  objectivement et indépendamment  de l’observation. Cela aurait comme signification que toute théorie physique, est de décrire une réalité objective qui existerait  et se comporterait  de la même façon que si l’observateur n’existe pas. Pour Bohr (père de la quantification de l’atome d’Hydrogène), le concept d’une  réalité indépendante de l’observation est dépourvue de sens, en ce sens qu’aucun phénomène n’est phénomène aussi longtemps qu’il n’apparaît pas comme phénomène observé.

    Par la suite, à défaut de matériels scientifiques  pouvant concrétiser les prédictions de l’une ou de l’autre des deux Ecoles, c’est un nouveau type d’expériences dites Expériences de Pensées qui a vu le jour. Chaque Ecole s’est permis de forger ses propres expériences. Du côté EPR, c’est autour de D. Bohm qui, très proche d’Einstein, a commencé  cette voie en redynamisant l’expérience de quantification de Stern et Gerlach dans une géométrie différente. C’est une géométrie où les deux moments cinétiques (s’excluant mutuellement) partent de la source vers des destinations de mêmes directions et de sens opposés, et prédire pour la première fois de l’existence de la corrélation instantanée entre les  deux mesures. Du côté Copenhague, c’est le paradoxe métaphore autour du chat de Schrödinger dans un état superposé mort/vivant (qui est resté en débat jusqu’à nos jours) et du poisson classique/quantique de Bohr. Ceci n’a pas empêché la physique quantique de multiplier ses champs d’actions et en particulier  vers la Physique atomique-moléculaire, les  théories des champs-particules et de la matière condensée (solide, liquide, statistique et problèmes à N corps). L’événement spectaculaire est l’édification de l’électronique quantique et le pompage optique (dont l’humanité vient de fêter l’anniversaire de ses 50 ans), qui est à l’origine du boum technologique actuel avec l’avènement Maser-Laser, supraconductivité, superfluidité, plasma, optoélectronique etc…Mais une grande question est restée tout de même posée par les physiciens sur la signification de l’électrodynamique quantique et la turbulence. La question sur l’électrodynamique quantique n’a plus lieu de continuer à être  posée depuis la publication des premiers résultats de S. Haroche, vérifiant expérimentalement que l’électrodynamique quantique existe bel et bien et que l’élaboration de la cavité CQED (Cavity Quiantum  ElectroDynamics),  comme lieu de la corrélation atome-photon est la preuve irréfutable de la quantification du Champ Electrodynamique.

     Mais les débats  ne se sont  aucunement estompés et c’est le mot corrélation qui y a connu le plus d’utilisation. Quarante ans de débats sans fin, n’ont pas empêché les physiciens  de s’atteler aux concepts de Copenhague et d’étayer d’amples développements qui viennent d’être évoqués. Il a fallu à l’année 1964 d’arriver, pour q’ un nouveau raisonnement voit le jour. Il s’agit de l’expérience de pensée, bâtie sur un  raisonnement purement mathématique  autour des inégalités de Bell, qui sont venues pour confirmer le principe de localité-séparabilité (non-corrélation), et apporter  un complément de variables cachées à la théorie quantique pour lui donner un contenu déterministe.  Ce sont les inégalités portant le nom du physicien irlandais  John Stewart Bell, qui publia un article dans lequel il mit en évidence des effets quantitatifs et mesurables des expériences de type Paradoxe EPR et les confirmer. Elles sont des relations quantitatives que doivent vérifier les corrélations  de mesure entre systèmes qui respectent totalement la causalité relativiste. Si ces inégalités sont violées, alors il faut admettre le fait d’influences instantanées à distance.  C’est un raisonnement qui repose sur la théorie des ensembles, dans lequel il suffit de considérer n’importe quelle collection d’éléments susceptibles de posséder trois propriétés dichotomiques. Le résultat obtenu est une fonction de corrélation globale, sous forme de combinaison linéaire des différents taux de corrélation des deux mesures d’états superposés, avec une borne inférieure et une autre supérieure formulant ces inégalités.

   Le paradoxe métaphore chat Schrödinger  n’a pas été atteint par l’usure du temps, c’est un paradoxe imaginé comme expérience de pensée en 1935, afin de mettre en évidence les lacunes posées par le problème de la mesure. Poser ce problème de façon frappante, selon lequel le chat serait simultanément dans deux états (l’état mort et l’état vivant), jusqu’à l’observation qui déclenche le choix entre les  deux états. Du coup, on ne peut absolument pas affirmer que le chat est mort ou vivant. Schrödinger a imaginé cette expérience de pensée pour réfuter l’interprétation orthodoxe de Copenhague vis-à-vis de la physique quantique, qui mène à un chat à la fois mort et vivant, et qui montre que cette théorie obéit à des lois souvent contraires à notre intuition. Mais par l’intrication, nous pouvons construire un état quantique superposé, c’est à dire combinaison linéaire de l’état mort et l’état vivant bien autorisé par l’équation de Schrödinger. Cette équation régit les états possibles d’une particule (chat) étudié dans le cadre de la physique quantique, est linéaire, ce qui entraine pour deux états possibles d’une particule (chat), la combinaison de ces deux états est également un état possible qui n’est autre qu’un état intriqué. Ainsi et pour la première fois par cette expérience de pensée, Schrödinger a mis en évidence la notion d’intrication quantique.

      Dès le début des années 70, date où l’instrumentation en physique expérimentale suffisamment développé, va  commencer à permettre de vérifier les inégalités de Bell. Deux universités, Harvard et Berkeley, ont commencé à mettre en ouvre un protocole expérimental sur ces bases, et les expériences ont eu lieu en 1972 (bien après la marche du premier homme sur la lune). Les résultats furent contradictoires : Harvard constata une vérification des inégalités, et par conséquent une contradiction avec la physique quantique. Berkeley trouva au contraire une violation des inégalités de Bell, et une vérification de la physique quantique. Le problème de ces expériences était notamment une source de particules intriquées peu fiable et de faibles débits, ce qui nécessitait des temps d’expériences s’étendant sur plusieurs jours en continu. Comme il était difficile de maintenir les mêmes conditions expérimentales sur des temps aussi longs, les résultats de ces expériences étaient sujets à caution.

     En 1976, la même expérience fut répétée à Houston avec une meilleure source de photons intriqués (corrélés), dont le temps expérimental est descendu à hauteur de 80 minutes. Les photons n’étant pas bien polarisés, n’ont pas empêché un premier doute sur une éventuelle violation des inégalités de Bell. Ce sont des expériences qui n’étaient pas bien élaborées, pour évacuer les possibilités de corrélations qui seraient dues à une influence classique de vitesse infra-luminique se propageant entre les particules.

   En 1980, il manquait encore une expérience décisive vérifiant la réalité de l’intrication quantique, sur la base de la violation des inégalités de Bell. En 1982, Alain Aspect de l’Institut d’Optique de Paris, a spécifié que son expérience pouvait  être la plus décisive possible, si elle répondait à certains critères :

–          Elle doit avoir une excellente source de particules, afin d’avoir un temps d’expérience court, et une violation plus nette des inégalités de Bell.

–          Elle doit mettre en évidence des corrélations de mesure dues à des effets quantiques (influence instantanée) et non à un effet classique.

–          Le schéma expérimental doit être le plus proche possible du schéma utilisé par J. Bell, afin que l’accord entre les résultats mesurés et prédits soient les plus significatifs possibles.

     La source utilisée est une cascade atomique d’atomes de calcium, excitée à l’aide d’un laser krypton, pour libérer des paires de photons corrélés dans des états de polarisation opposés. Les inégalités de Bell permettent d’établir une courbe théorique du nombre de corrélations ente états, et celle obtenue par A. Aspect se trouve en adéquation d’établir quantitativement et qualitativement cette violation, mais avec l’implication d’un hypothétique signal de coordination qui se déplace deux fois plus vite que la vitesse de la lumière. La qualité technique  de cette expérience, le soin apporté pour éviter les artefacts expérimentaux, ont largement convaincu la communauté scientifique internationale de la réalité de la violation de l’inégalité de Bell par la physique quantique, et donc de la réalité de la non-localité quantique. Décrire cette expérience, a interpelé  l’auteur de cet article à se souvenir d’une  occasion de rencontre  avec le physicien français  Kessler du Collège de France à la fin de l’année 1994, qui est un ami proche d’A. Aspect. Parmi les sujets de discussion entamés avec lui, cette fameuse expérience et ce signal hypothétique, et qu’à ce  titre Aspect était  à cette époque parmi les plus favoris à avoir le Prix Nobel. Sur un ton calme sentant recul, sagesse et humilité  Kessler  a bien insisté verbalement que « mon ami Alain Aspect   est parfaitement nobélisable, il n’y a aucune raison pour qu’il ne sera pas ».  Et depuis, beaucoup d’eaux ont coulé sous les  ponts.

    En 1998, l’expérience de Genève a testé des corrélations entre deux détecteurs distants de 30 Kms, en utilisant le réseau suisse de télécommunication par fibre optique, a montré une nette violation des inégalités de Bell avec l’hypothétique signal de coordination qui arrivait à 10 millions de fois la vitesse de la lumière.

     Une grande question reste tout de même posée, et qui revient souvent à l’esprit c’est que comment tous les objets décrits par la physique classique (projectile, voiture, fusée, planète etc…) qui, étant formés à l’origine d’atomes et de particules bien décrits par la physique quantique, qui elle n’arrive à décrire ces objets. Les tentatives en ce sens ont posé de nombreux problèmes dès le départ et pendant très longtemps. C’est la théorie de la décohérence quantique qui est à ce jour une des tentatives les plus satisfaisantes bien qu’elle ne traite pas la totalité des problèmes.

    Le problème majeur est que la physique quantique admet des états superposés, absolument inconnus  à un niveau macroscopique décrit par la physique classique. De même cette théorie quantique tient compte de cette non-observabilité des états superposés quantiques en stipulant que tout acte d’observation provoque un effondrement de la fonction d’onde, et sélectionne instantanément un et un seul état parmi l’ensemble des états possibles. Cela donne lieu à une contradiction mathématique entre le postulat de réduction du paquet d’onde avec celui de l’équation d’évolution. Tel est le problème principalement traité par la décohérence, qui s’attaque au problème de la disparition des états superposés au niveau macroscopiques. Son objectif est de montrer que cette contradiction n’a pas lieu d’être et que c’est plutôt une compatibilité.

      En effet selon cette théorie, chaque éventualité d’un état superposé interagit avec son environnement, et on peut démontrer mathématiquement que chaque interaction déphase les fonctions d’ondes les unes par rapport aux autres jusqu’à devenir orthogonales et de produit scalaire nul. Seuls restent observables les états correspondant aux états observables  macroscopiquement, par exemple dans le cas du Chat de Schrödinger mort ou bien vivant. De plus, la théorie de la décohérence prévoit  qu’un certain temps est nécessaire pour que les déphasages s’accumulent et finissent par rendre négligeables  la probabilité des états superposés.

     La question que tout lecteur ayant lu cet article, a à se poser : Pourquoi tout ce périple autour de l’histoire de la physique quantique, et quelle relation avec le Prix Nobel 2012?  La réponse est que toutes les étapes depuis le paradoxe EPR jusqu’au Qubit se trouvent dans la seule et même expérience CQED (Quantum ElectroDynamics) de S. Haroche, améliorée par étapes  pendant plus de quinze ans. A commencer d’abord par la réalisation d’un atome de Rydberg, d’un système quantique intriqué (existant au préalable dans l’expérience d’Aspect pour deux particules non massives), d’une Cavité CQED, d’un une spectroscopie atomique RIS (Resonance ionisation Spectroscopy) à l’aide de l’interféromètre de Ramsey et une spectroscopie micro-onde à l’aide d’un interféromètre Perrot-Fabry à miroirs circulaires et supraconducteurs pour disperser les modes très hautes fréquences de 51 GHZs, et dissiper/transformer en maser les modes basses fréquences. L’ensemble de cette instrumentation plongé dans une station cryogénique de 0.6 °K, est réglé de façon à avoir un minimum de décohérence quantique possible.

   Un atome de Rydberg est un atome très excité dans lequel l’électron externe se trouve dans un niveau d’énergie élevé, très proche de l’ionisation. Les atomes de Rydberg ressemblent beaucoup aux atomes d’hydrogène car l’électron excité est dans une orbite si éloignée qu’il se trouve bien au-delà des orbites des autres électrons. Un atome de numéro atomique Z possède un électron très éloigné du cœur de charge +e comme l’atome d’hydrogène, et n’importe quel atome peut devenir un atome de Rydberg. Ce sont des atomes très gros jusqu’à 100 000 fois plus gros que les atomes normaux. Bien qu’ils soient dans un état excité, leur temps de vie est étonnamment très long, plus d’un million de fois le temps de vie des atomes normaux. Les atomes de Rydberg, ont donc des durées de vie trop longues, presque infinies. L’atome de Rydberg choisi par S. Haroche et son équipe est l’atome de Rubidium entre les niveaux excité indexé par le nombre quantique principal  n entre les 51 et 50.  Ce qui porte son  volume presque à 1500 fois le volume initial. La plaque d’émission de Ramsey focalise le dit atome sur la cavité QED et une fois introduit, il subit l’oscillation de Rabi comme effet de couplage avec la cavité même en absence de photons. Son état est un état quantique intriqué, car c’est une combinaison linéaire des deux états associés aux deux niveaux 50/51qui sont l’équivalent des états mort/vivant du chat de Schrödinger. C’est la première réalisation pratique de la métaphore Chat de Schrödinger avec des particules massives.

    Ceci donne à cet atome une  dimension micrométrique et au même temps la propriété de dispersion et donc posséder un indice de réfraction. Lui permettre de se corréler avec le photon émis dans cette cavité par processus Starck, donne lieu à un déphasage par rapport à la fréquence de Rabi. Ce  déphasage est transformé en amplitude mesurable qui permet au photon d’être déterminé en intensité et donc en nombre avec la probabilité d’être dans l’état 50 ou 51. Un atome corrélé au photon est en fait une entité de taille mésoscopique définie sur toute la longueur  de corrélation, constitue un QuBit, l’unité de mémoire pour le futur calculateur quantique, avec une durée de vie c’est-à-dire une durée de mémoire infinie. Une chaine de plusieurs centaines d’atomes de Rubidium donne une chaine de taille macroscopique située au-delà du millimétrique. C’est donc  une chaine accessible à notre échelle,  qui peut  être le siège de multiQuBits  et  donc  d’un transfert de grandes quantités d’informations.

   Une première lecture des principaux  articles publiés par S. Haroche et D. Wineland nous a été un impératif incontournable, pour rendre compte de la valeur et de l’immensité de l’effort accompli au milieu d’une communauté scientifique et d’une  Intelligentsia de haut rang. Précisons tout de même, que nous n’avions eu accès à toute cette abondante littérature, que grâce à l’aide apporté par les organismes scientifiques internationaux. A ce sujet, nous avons bénéficié des bons services de l’AIP (American Institute of Physics), de l’APS (American Physical Society)  et de l’OSA (Optical Society of America), qui mettent  à notre dispositions chaque année tous les  travaux des Prix Nobel de Physique depuis quelques années, ainsi qu’un courrier hebdomadaire portant sur tous les travaux de recherches récemment publiés dans leurs organes. C’est grâce à ces services qui nous sont rendus que l’aboutissement à concrétiser cet article a eu lieu, qui va certainement être suivi d’autres articles.

    Le prochain article sera spécialement dédié au calculateur quantique et le chemin vers l’informatique quantique.

                                             Par Le Pr Abdelkarim NOUGAOUI

MédiocreMoyenBienTrès bienExcellent
Loading...

2 Comments

  1. ANAS OUJDA
    03/12/2012 at 23:38

    JE PENSE QUE CE QUE VOUS ECRIVEZ EST TRÈS IMPORTANT IL MÉRITE UNE ATTENTION PARTICULIERE
    Source : link to oujdacity.net

  2. UNiversitaire
    04/12/2012 at 08:53

    Tout ce Bien et ces beaux articles. Il est bien évident de refléchir d’écrire un Livre pour les futures générations yatrahmou 3lyk

Commenter l'article

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *