Forces à courtes distances
Unifier la physique
Confronté à la diversité de la Nature, le physicien cherche à avoir une compréhension unifiée de l’Univers qui l’entoure. Jusqu’à aujourd’hui, les plus belles réalisations de la physique sont allées dans ce sens et lui ont donné raison. Au XVIIe siècle déjà, les travaux d’Isaac Newton, qui marquent le début de la physique moderne, unifiaient la mécanique terrestre à la mécanique céleste. Deux siècles plus tard, James Clerk Maxwell, se basant sur les idées de Michael Faraday, pose les bases de la théorie électromagnétique, unifiant ainsi à la fois les phénomènes électriques, magnétiques et optiques. A ce stade, la théorie de Maxwell est une théorie classique des champs. Il faudra attendre le milieu du XXe siècle pour que Julian Schwinger et Richard Feynman, parallèlement à Sin-Itiro Tomonaga, parviennent à unifier électromagnétisme et mécanique quantique en proposant la théorie de l’électrodynamique quantique. Ils obtiendront tous les trois le prix Nobel de physique en 1965. L’électrodynamique quantique décrit l’interaction électromagnétique entre deux particules chargées par l’échange d’un photon. Il s’agit de la première théorie quantique des champs. Aujourd’hui, chacune des interactions forte, faible et électromagnétique sont décrites par une théorie quantique des champs qui constitue le modèle standard de la physique des particules. La dernière grande unification date de 1967, lorsque Steven Weinberg, associe les travaux de Sheldon Glashow avec ceux de Robert Brout, François Englert et Peter Higgs, pour proposer une théorie quantique des champs qui unifie l’interaction faible avec l’interaction électromagnétique : la théorie électrofaible. Celle-ci lui valu en 1979, ainsi qu’à Sheldon Glashow et Abdus Salam, le prix Nobel de physique. L’année 2012 marque l’ultime consécration de la théorie électrofaible avec la découverte expérimentale au CERN de l’existence du boson de Higgs, particule essentielle aux fondements de cette théorie .
La pertinence de la théorie électrofaible et de son mécanisme de brisure de symétrie induite par le champs de Higgs, ouvre la voie à une unification des trois interactions du modèle standard. Toutefois l’analyse des données expérimentales indique que les constantes de couplages des interaction forte, faible et électromagnétique se rejoignent à une échelle d’énergie vertigineuse de 10¹⁵ GeV. Le vaste écart entre cette échelle d’énergie et l’échelle électrofaible constitue un problème à l’unification de ces trois interactions, appelé problème de hiérarchie de jauge. La solution à ce problème peut cependant être envisagée dans le cadre d’une théorie de « Grande Unification Supersymétrique », proposée par Sheldon Glashow et Howard Georgi, dans laquelle les trois interactions seraient unifiables, de façon similaire à la symétrie électrofaible, à une échelle d’énergie de 10¹⁶ GeV. Malheureusement cette échelle d’énergie, appelée échelle supersymétrique étant difficilement accessible, cette théorie ne peut être ni validée ni rejetée par l’expérience.
Le constat est sans appel. Le modèle standard de la physique des particules, décrivant trois des quatre interactions fondamentales connues à ce jour, et unifiant deux d’entre elles, est particulièrement performant et efficace pour décrire le monde qui nous entoure. Malheureusement un nuage semble lui faire de l’ombre : la théorie quantique des champs ne peut pas inclure l’interaction gravitationnelle. En effet, les interactions forte, faible et électromagnétique s’expliquent comme les résultats de l’échange quantique de bosons virtuels, alors que l’interaction gravitationnelle est une conséquence classique de la courbure de l’espace-temps. Aujourd’hui il est largement admis que la théorie quantique des champs et la théorie de la relativité générale d’Einstein, appelée parfois le modèle standard de la cosmologie, sont incompatibles. L’unification de ces deux modèles standards, constitue donc le «Graal» de la physique fondamentale contemporaine.
Les théories non-Newtoniennes
La découverte inattendue en 1998 de l’accélération de l’expansion de l’Univers [1, 2] vient confirmer que la théorie de la relativité générale, puisqu’elle ne semble pas satisfaisante à l’échelle cosmologique, n’est pas réellement fondamentale. Malheureusement, ces mêmes données cosmologiques indiquent aussi que l’Univers est rempli d’une densité d’énergie du vide ρvac de l’ordre de 2 meV. Une densité d’énergie si petite est déconcertante car on s’attendrait à ce qu’elle soit de l’ordre de M4? [3]. L’échelle fondamentale étant supposée être de l’ordre de l’échelle supersymétrique ou de l’échelle de Planck, on attendrait donc une densité d’énergie du vide 10¹¹⁵ fois plus importante. Ce deuxième problème de hiérarchie, encore plus monstrueux que celui de la hiérarchie de jauge, est appelé problème de la constante cosmologique .
Dans cette brève introduction au contexte théorique motivant l’exploration de nouvelles interactions à coutes distances, nous nous sommes restreints à la description des baryons de jauge de nombre B, des messagers de Yukawa et des moduli. Une revue exhaustive des différentes modifications de la loi de Newton à courtes distances, induites par d’autres particules telles les gravitons de Kaluza Klein, le radion ou encore l’axion, se trouve dans [3]. L’aire coloriée en jaune sur la figure (I.1) correspond aux contraintes actuelles sur α et λ obtenues expérimentalement sur les vingt dernières années. La plus récente date de 2011. Pour des distances de 1 µm, celle-ci contraint l’amplitude relative d’une interaction nouvelle à environ 10⁹ . Les contraintes expérimentales sont donc très faibles. En effet, le challenge ici n’est pas d’envoyer une sonde spatiale à des milliards d’années lumières, mais de s’affranchir d’autres forces, de type électromagnétique, comme par exemple la force de Casimir, qui à ces échelles de distances dominent de plusieurs ordres de grandeurs l’interaction gravitationnelle.
La force de Casimir
La force de Casimir est une propriété étonnante de l’électrodynamique quantique qui fut découverte par Hendrick Casimir en 1948 : deux plaques métalliques parallèles placées dans le vide s’attirent [17]. Ce phénomène est le résultat de la quantification du champ électromagnétique du vide à l’intérieur de la cavité formée par les deux plaques de métal. Il peut se comprendre ainsi : les conditions aux limites imposées par les deux plaques métalliques sélectionnent les modes d’oscillations du champ du vide pouvant se propager à l’intérieur de la cavité. Puisque tous les modes peuvent exister à l’extérieur de la cavité, il en résulte une différence de densité d’énergie entre l’intérieur et l’extérieur de la cavité et donc une force de pression qui pousse les deux plaques l’une vers l’autre. C’est en 1958 que la force de Casimir a été mise en évidence pour la première fois. La mesure a été réalisée par M.J. Sparnaay [18] à l’aide de deux jeux de plaques de métaux différents. Une des plaques est située sur un levier, la seconde sur un système de balance relié à un condensateur. La mesure de la variation de la capacité du condensateur permet de connaître la force s’exerçant entre les plaques avec une précision suffisante pour retrouver le comportement prédit par H. Casimir. Pour des distances d allant de 0.5 à 2 µm, la force mesurée est en bon accord avec les prédictions théoriques. Les limitations principales de ce système sont la détermination de la distance d à ∼ ±0.2 µm, la mesure de la différence de potentiel des deux plaques ainsi que l’existence d’obstacles tels des dépôts d’oxydes d’aluminium sur les plaques.
Il est particulièrement difficile de maintenir deux plaques macroscopiques parallèles, et comme discuté par M.J. Sparnaay, un mauvais alignement induit un biais important sur la mesure de la force de Casimir. Afin de s’affranchir de ce problème, S.K. Lamoreaux remplace donc une des plaques par une lentille sphérique recouverte d’une couche d’or. Il réalise ainsi les premières mesures de précisions de la force de Casimir en 1997 [19]. La distance plaque-lentille est mesurée par interférométrie laser à 0.01 µm près et un système de rétroaction permet de compenser le mouvement de la balance induite par la force de Casimir. Cette expérience a permis une mesure de la force avec une précision de 5% sur une plage de distances (limitée par l’instabilité de la boucle d’asservissement) allant de 0.6 à 10 µm. La comparaison entre l’expérience et le modèle théorique a permis d’imposer les premières contraintes sur l’existence de forces nouvelles à courtes distances.
Depuis, plusieurs expériences similaires utilisant des pendules de torsions ont permis de contraindre un peu plus les paramètres α − λ. En 2007, l’équipe Eöt-Wash de Washington a ainsi exploré des distances comprises entre 55 µm et 10 mm [20] et imposé de fortes contraintes sur l’existence de moduli légers. Deux années plus tard, une équipe Japonaise a mesuré la force de Casimir pour des distances allant de 1.0 à 2.9 µm, imposant ainsi une limite basse à l’échelle d’énergie fondamentale M? de quelques TeV pour des baryons de jauge de nombre B [21]. La mesure la plus récente réalisée par A.O. Sushkov en 2011 [22] a permis de contraindre M? > 70 TeV. Cette nette amélioration est due en partie à un modèle théorique élaboré qui prend en compte la force de Casimir corrigée des effets de température finie (détaillés dans [23]) ainsi que l’existence de forces parasites électrostatiques présentes sur les surfaces.
Un deuxième type de capteurs de forces à courtes distances appelé oscillateur électromécanique de torsion (en anglais : micro-electromechanical torsional oscillator), a permis de contraindre les paramètres α pour des distances λ comprises entre 29.5 et 200 nm.
|
Table des matières
I Introduction
I.1 Forces à courtes distances
I.1.1 Unifier la physique
I.1.2 Les théories non-Newtoniennes
I.1.3 La force de Casimir
I.1.4 La force de Casimir-Polder
I.2 Principe de l’interférométrie atomique
I.2.1 Historique
I.2.2 La transition Raman à deux photons
I.2.3 L’interféromètre de Ramsey-Raman
I.2.4 Application aux capteurs de forces
II Dispositif Expérimental
II.1 Atteindre le µK
II.1.1 Le nouveau banc de refroidissement
II.1.2 Les pièges magnéto-optiques
II.2 Atteindre les 100 nK
II.2.1 Le refroidissement évaporatif : considérations théoriques
II.2.2 Protocole expérimental
II.3 Séquences expérimentales
II.3.1 Schéma des lasers
II.3.2 Chargement depuis la mélasse
II.3.3 Chargement depuis le piège dipolaire
III Interféromètres en régime dilué
III.1 Interféromètres piégés
III.1.1 Les états de Wannier-Stark
III.1.2 Couplage Raman et transport atomique dans le réseau
III.1.3 Echo de spin et interféromètres symétriques
III.2 Effets systématiques et biais associés sur la mesure de νB
III.2.1 Déplacement lumineux différentiel à 1 photon
III.2.2 Déplacement lumineux différentiel à 2 photons
III.2.3 Force parasite du piège de confinement transverse
III.3 Sensibilité de la mesure
III.3.1 Influence du piège de confinement transverse
III.3.2 Influence du piège périodique longitudinal
III.3.3 Nouvelle meilleure sensibilité court terme
III.4 Conclusion
IV Interféromètres micro-ondes en régime dense
IV.1 Outils théoriques sur l’effet de rotation des spins identiques
IV.1.1 Brefs rappels sur la théorie de la diffusion
IV.1.2 La statistique quantique à l’origine du champ moyen de spin
IV.1.3 Le régime de Knudsen et l’auto-synchronisation des spins
IV.2 Compétition entre l’écho et l’auto-synchronisation de spin
IV.2.1 Piège dipolaire croisé
IV.2.2 Piège mixte
IV.3 Déphasage, déplacement collisionel et densité magique
IV.3.1 Fréquence moyenne et non-homogénéité
IV.3.2 Densité magique
IV.4 Conclusion
V Conclusion
Télécharger le rapport complet