Télécharger le fichier pdf d’un mémoire de fin d’études
Les oscillations baryoniques acoustiques (BAO)
Les oscillations baryoniques acoustiques correspondent aux ondes acoustiques pré- sentes dans le plasma baryon-photon avant le découplage. Alors que les surdensités de matière noire attirent gravitationnellement la matière, la pression des photons entraîne une résistance générant des ondes acoustiques dans le plasma primordial. Lorsque le dé- couplage a lieu, les photons peuvent se diffuser librement, et les ondes acoustiques sont gelées. La distance que les ondes ont pu parcourir avant le découplage, appelée l’horizon sonique rs, imprime une échelle particulière dans la distribution photon-matiere à cette époque. Cette échelle constitue un étalon standard, qui permet de mesurer la distance du diamètre angulaire (observation transverse) et le taux d’expansion (observation dans la ligne de visée) en fonction du décalage spectral et donc de contraindre l’énergie noire. L’empreinte des oscillations acoustiques des baryons dans le plasma primordial peut être détectée dans les relevés de structures à grande échelle, sur une distance de l’ordre de 150 Mpc et dans le spectre des anisotropies du rayonnement de fond cosmologique. L’effet des BAO a été observé, pour la première fois, dans la série de pics du spectre de puissance angulaire du fond diffus cosmologique [57]. Avec le grand sondage de galaxies de l’expérience BOSS [5], il a été possible de reconstruire le champ de densité et de mesurer la fonction de corrélation à deux points et le spectre de puissance de la distribution de galaxies, et ce sondage a permis la détection des oscillations acoustiques de baryons à 5σ, sous la forme d’un pic dans la fonction de corrélation et d’oscillations dans le spectre de puissance [16]. Les BAO ont été aussi détectées par l’expérience BOSS avec des quasars à grand décalage spectral entre 2.3 < z < 3.5 en utilisant les mesures de densité d’hydrogène neutre des forêts Lyman-alpha de ces quasars [38]. Cette détection fournit une mesure du taux d’expansion de l’Univers à une époque où l’énergie sombre ne dominait pas. Ces données combinées avec les données du fond diffus de WMAP 7ans [111] fournissent une valeur du paramètre de Hubble H(z = 2.3) = (224 ± 8) km.s–1.Mpc–1. Ce résultat montre que l’expansion était décélerée entre 0.7 < z < 2.3 dans la période de domination de la matière de l’univers. Les contraintes cosmologiques obtenues avec les galaxies et les quasars convergent vers un univers plat dominé par une constante cosmologique. Ces détections fournissent une preuve que les fluctuations aux grandes échelles croissent selon la théorie des perturbations linéaires depuis z ∼ 1000 et confirment l’existence de la matière noire au temps de la recombinaison. Si l’univers contenait uniquement des baryons, la signature acoustique devrait être beaucoup plus importante.
Cisaillement gravitationnel
Les images des galaxies d’arrière plan sont déformées par l’effet gravitationnel des masses le long de la ligne de visée des photons. Des puits de potentiel gravitationnel importants comme les amas de galaxies induisent une distorsion de l’image sous forme d’arcs, d’images multiples. Cet effet est sensible au potentiel gravitationnel intégré le long de la ligne de visée. Il est extrêmement prometteur, étant sensible à la masse de la matière indépendamment de sa nature. Il permet de briser la dégénérescence entre les paramètres Ωm et σv8 2. Cet effet est observé dans les grands relevés photométriques tel que SDSS III [65] ou CFHTLS [66, 90]. Par ailleurs, au sein des systèmes lentillés, les retards de temps représente la normalisation de l’amplitude du spectre des perturbations primordiales P (k). entre les flux observés des images, résultant de la variabilité intrinsèque d’un quasar sous l’effet d’amas de galaxies intermédiaires, permettent d’obtenir des valeurs de plus en plus précises de la constante de Hubble H0. Cette mesure dépend de la séparation angulaire des images et de la distribution de masse de la lentille. La contrainte obtenue sur H0 est (60 ± 20) km.s–1.Mpc–1 [7].
La nucléosynthèse primordiale
Le modèle de la nucléosynthèse primordiale permet de réaliser des prédictions sur l’abondance des éléments légers D, 3He, 4He et 7Li. La détermination des abondances primordiales est réalisée en intégrant les équations de Boltzmann appropriées pour chaque espèce nucléaire. Les valeurs prédites pour ces abondances sont en accord avec des observations indépendantes, et donc la nucléosynthèse primordiale constitue une validation du modèle du Big Bang chaud. La mesure de l’abondance du deutérium est réalisée en mesurant le spectre d’absorption en Lyman α des quasars par les nuages intergalactiques 3 ou la mesure de l’abondance 4He dans les régions HII. Des estimations de la densité de baryons par la nucléosynthèse primordiale Ωbh2 = 0.0205 ± 0.0018 [138] et par le rayonnement de fond cosmologique Ωbh2 = 0.02205 ± 0.00028 [156] montrent que ces deux sondes sont en excellent accord. Cette valeur est significativement inférieure aux estimations de la densité réduite totale de matière Ωm, ce qui implique l’existence de matière noire non-baryonique.
Le diagramme de Hubble
Le diagramme de Hubble constitue à lui seul un argument en faveur d’un univers en expansion accélérée. Cette mesure doit être réalisée suffisamment à grande échelle pour que l’expansion domine la vitesse propre des galaxies, mais assez proche pour que la loi de Hubble soit valable. Le facteur limitant est la difficulté de construire une échelle de distance fiable. Cependant, ces dernières années, le télescope HST (Hubble Space Telescope) [72] a permis d’obtenir des mesures de H0 avec une précision de l’ordre de 10%. La méthode utilisée consiste à mesurer la luminosité d’une classe d’objets où la luminosité est soit constante, soit reliée à un autre paramètre indépendant de la distance, ce qui permet de calibrer des distances relatives. Différents objets sont utilisés pour réaliser cette calibration : les céphéides, les supernovae, la relation de Tully-Fisher et le plan fondamental des galaxies elliptiques. Riess et al. [170] ont utilisé les céphéides dans les galaxies hôtes de 8 supernovae pour déterminer la relation magnitude-décalage spectral et ont obtenu H0 = 73.8 ± 2.4 km.s–1.Mpc–1.
Les supernovae permettent d’obtenir le diagramme de Hubble à grand z. La figure 1.5.1 représente ce diagramme mesuré par deux groupes : le Supernova Cosmology Project et le High-Z Supernova Search [149, 169]. L’ajustement de la distance de luminosité en fonction du décalage spectral contraint une valeur de la constante cosmologique différente de zéro à 99% de niveau de confiance. En 1999, avec 42 supernovae, Perlmutter et son groupe obtiennent des contraintes des paramètre Ωm = 0.3 et ΩΛ = 0.7 [150]. Les barres d’erreur de ces mesures restent élevées. Elles proviennent de la statistique (qui a sensiblement augmenté depuis ces mesures), et de l’hypothèse que les supernovae lointaines sont des chandelles standards. Leur processus astrophysique est encore mal connu et l’absorption par leur milieu interstellaire affecte leur luminosité. Les derniers résultats de Planck [156] mettent en évidence une tension à 2σ entre les données de Planck combinées avec celles des oscillations baryoniques acoustiques et les données des supernovae. Le sondage de supernovae choisi, est celui de SNLS-3ans [51], il ne prend pas en compte l’amélioration de la calibration photométrique développée dans [26] et de la statistique avec les supernovae de SDSS [39]. Les contraintes apportées par les supernovae en tenant compte de ces deux améliorations ne sont pas encore publiées mais semblent converger vers un modèle ΛCDM.
L’étude des grandes structures
Les amas de galaxies constituent des traceurs de la distribution de masse (avec la forêt Lyα, la raie 21cm d’hydrogène). Ils sont très sensibles aux fluctuations de densité et, permettent de poser des contraintes sur les paramètres Ωm, σv8, H0, Ωb. Dans la limite de la compréhension de la physique sous jacente des amas, il est possible de contraindre l’évolution de l’univers en étudiant leurs caractéristiques (température, luminosité…). Le concept d’utiliser les galaxies comme un traceur biaisé de la distribution de la matière a été développé par Kaiser en 1984 [101]. Ceci implique que le contraste de densité de la matière lumineuse δl est proportionnel à celui de la matière noire δc. Le coefficient de proportionnalité est le biais b. Il dépend de la nature des traceurs et de leur masse. Pour déterminer la distance des galaxies dans la ligne de visée, il faut prendre en compte le décalage spectral, et nous avons vu que pour déterminer la distance comobile d’un objet, il faut supposer un modèle cosmologique, soit une cosmologie fiducielle. Le décalage spectral de l’objet dépend aussi de la distribution de sa vitesse propre, qui affecte dans l’espace des décalages spectraux le champ de densité. Ces déplacements peuvent être séparés en deux types : un déplacement du à des vitesses aléatoires créant un étirement de l’amas (doigt de Dieu) et un déplacement cohérent, appelé l’effet Kaiser. Une comparaison directe des cartes de vitesse et de la distribution des galaxies permet dans le cadre du le modèle ΛCDM, de mesurer Ωm. Le résultat de l’analyse de la fonction de corrélation des galaxies du sondage 6dFRGS fournit une valeur σv8 = 0.76 ± 0.11 e Ωm = 0.250 ± 0.022 [98]. Ce type d’analyse statistique permet aussi de déterminer le spectre de puissance. Une détermination de ce spectre à différents z permet de mesurer son évolution au cours du temps en tenant compte de la dégénérescence induite par le biais et des distorsions liées aux vitesses particulières de ces traceurs.
Le rayonnement de fond cosmologique
Le fond diffus cosmologique est la sonde dont la physique est la mieux connue. Il a été découvert par les astrophysiciens Penzias et Wilson en 1964, ils ont reçu le prix Nobel en 1979 pour cette détection. Les mesures de précision du fond diffus ont débuté avec les instruments FIRAS et DMR embarqués dans le satellite COBE [30] en 1989. L’instrument FIRAS a mesuré un spectre de corps noir presque parfait à 2.7±0.001 K, cette mesure est l’une des mesures les plus précises de l’histoire. L’instrument DMR a permis de réaliser une carte des anisotropies de température à la résolution de 7°. Cette résolution permet une détermination du spectre de puissance jusqu’à un multipôle de 20. Suite à ces observations, les instruments dans l’espace WMAP et Planck, ainsi qu’un grand nombre d’expériences au sol et ballons ont permis la caractérisation de ces anisotropies de température et la détection de la polarisation du rayonnement du fond diffus. En 1999, les données de BOOMERanG [56] et MAXIMA [187] permettent la détection du premier pic acoustique du spectre de puissance, fournissant une contrainte forte sur Ω0 et un argument très fort en faveur d’un Univers plat. En 2002, l’expérience ballon Archeops [25] a permis de lever les ambiguïtés entre les jeux de données de COBE et celles de BOOMERanG sur les systématiques liées à la normalisation des deux jeux de données.
L’expérience satellite WMAP a permis de fournir une carte complète du ciel à une résolution angulaire de 0.3°, l’incertitude est seulement limitée par la variance cosmique du multipôle l = 2 jusqu’au deuxième pic acoustique. Les données WMAP-9ans [24] fournissent une mesure en température et en polarisation E sur tout le ciel et ont permis d’obtenir les spectres de puissance : T T, TE et EE. Les mesures des spectres TE et EE sont en accord avec les prédictions issues des paramètres dérivés du spectre T T, ce qui met en évidence une compréhension excellente de la physique sous-jacente. Une des conclusion majeures des résultats du satellite Planck publiés fin mars 2013 [156] est le très bon accord entre le spectre de puissance en température aux petites échelles angulaires et les prédictions du modèle ΛCDM. Ces données ne montrent pas d’évidence pour des non-gaussianités primordiales en accord avec le modèle ΛCDM qui prédit des fluctuations primordiales gaussiennes [159].
Discussion
Il apparaît de l’ensemble des résultats de ces sondes que les observations convergent vers le modèle ΛCDM, cette concordance est illustrée par la figure 1.5.2. Cette figure montre comment la combinaison de trois sondes : le fond diffus cosmologique (WMAP [111]), les oscillations baryoniques acoustiques (SDSS-DR7, 2dFGRS [148]) et les supernovae Ia [169] brise la dégénérescence entre les densités réduites ΩΛ,0 et Ωm,0. Les contours combinés sont en accord avec le modèle ΛCDM à 68% de niveau de confiance. La figure 1.5.3 de gauche représente la combinaison du fond diffus avec les données de Planck [156], aux petites échelles de SPT [174] et ACT [112], des oscillations acoustiques (SDSS DR7 [148], WiggleZ [29], BOSS DR9 [4]). La dégénérescence géométrique entre les paramètres Ωm et ΩΛ est partiellement brisée par cette combinaison de données. La contrainte est considérablement améliorée avec l’ajout de la reconstruction du spectre lentillé fourni par Planck et les oscillations acoustiques baryoniques comme le montre la figure de droite. Le tableau 1.2 donne des contraintes sur les paramètres cosmologiques des paramètres libres du modèle standard [156], obtenues de la combinaison des données en température du satellite Planck, des données en polarisation de WMAP aux grandes échelles angulaires (basL), des données des expériences ACT et SPT aux petites échelles angulaires (hautL) et des oscillations baryoniques acoustiques (BAO). Le paramètre θ∗ représente la taille angulaire de l’horizon sonore au moment de la dernière diffusion.
Fin de l’inflation : phase de réchauffement
L’inflation doit se terminer pour être suivie par la phase de radiation. Le potentiel de l’inflation presque plat durant l’inflation devient abrupte au moment où l’inflation prend fin comme représenté dans la figure 1.7.2. La fin de l’inflation se produit lorsque |η| ∼ 1 et |ε| ∼ 1. Le roulement lent du champ scalaire φ le long de la pente descendante du potentiel V (φ) et les conditions nécessaires à l’inflation ne sont alors plus vérifiées. Si le potentiel a un minimum local Vmin, le champ φ subit un mouvement oscillatoire amorti autour de ce minimum, l’amortissement est lié au terme de friction 3Hφ. ˙ L’état final du champ est donc associé à la valeur du potentiel minimum.
Si Vmin > 0 alors pφ = –ρφ, l’inflation dure indéfiniment, et le champ scalaire agit comme une constante cosmologique effective Λ = Vmin.
Si Vmin = 0, la densité d’énergie du champ scalaire devient nulle et la dynamique de l’univers est régie par les autres champs.
En réalité, le champ scalaire est couplé avec d’autres champs. Ce couplage entraine la désintégration du champ scalaire lors de la phase d’oscillations amorties en paires de particules, diminuant peu à peu sa densité d’énergie. L’univers contient alors la même densité d’énergie qu’avant l’inflation. Les particules ainsi crées vont interagir et se désintégrer entre elles, et laisser l’univers dans les conditions initiales du modèle standard de la cosmologie avec la matière et le rayonnement en équilibre thermodynamique. Cette phase constitue à elle seule un sujet de recherche. Une explication détaillée de cette période peut être trouvée dans la référence [19].
Origine des fluctuations
Un des succès de la théorie de l’inflation est de résoudre le problème de l’origine des fluctuations de la métrique. Une de ses prédictions est la production de fluctuations scalaires et tensorielles. Ces fluctuations seraient dues aux fluctuations quantiques des champs en présence du champ scalaire : l’inflaton. Durant la phase d’inflation, la densité d’énergie de l’univers est dominée par celle du champ scalaire, qui est sujet à des fluctuations quantiques du vide. Du fait de l’expansion accélérée de l’univers, les fluctuations vérifiant initialement k ≫ aH vont traverser le rayon de Hubble où k = aH. Pendant cette traversée, les fluctuations quantiques deviennent de nature classique. En dehors de l’horizon, ces fluctuations k ≪ aH sont gelées, elles ont une amplitude constante et sont caractérisées par les perturbations de la métrique R qu’elles génèrent qui leur sont directement proportionnelles. L’horizon de Hubble comobile croît après l’inflation, de telle façon que toutes les fluctuations ré-entrent dans le rayon de Hubble pendant la période de domination de la radiation ou de la matière selon leur taille initiale. Nous supposons un champ φ qui vérifie les conditions de roulement lent qui se décompose suivant φ(t, ~x) = φ0(t) + δφ(t, ~x), (1.7.17)
Introduction au rayonnement de fond cosmologique
En 1965, Penzias et Wilson détectent le rayonnement de fond diffus cosmologique. Cette découverte constitue un élément fondamental du modèle de la cosmologie actuel. Les mesures du spectre du rayonnement de fond cosmologique qui ont suivies dans l’espace par les instruments DMR [183] et FIRAS [124] de COBE [30], ont fourni la preuve définitive d’un passé chaud et dense de l’univers. Le rayonnement de fond cosmologique est alors interprété comme la radiation cosmologique relique de l’univers primordial dans le modèle du Big Bang chaud, prédit par Gamow, Alpher et Herman [10].
La science du rayonnement de fond cosmologique a commencé avec sa prédiction dans les années 40 et continue aujourd’hui. La détection de ce rayonnement a été suivie par la mesure de son spectre en fréquence et par la détection de petites fluctuations de tempé- rature par l’instrument DMR du satellite COBE. Un grand nombre d’expériences au sol, ballons et satellites ont suivi avec une amélioration continuelle en sensibilité et en résolution angulaire. Dans cette section, nous allons aborder l’évolution de la caractérisation du rayonnement de fond cosmologique. Puis, nous expliquerons les processus physiques à l’origine des anisotropies primaires et secondaires.
Des prédictions à la détection
Dans les années 30, George Gamow cherche à comprendre l’origine des éléments chimiques. A cette époque, l’hypothèse la plus populaire au sein de la communauté scientifique est que ces éléments sont synthétisés au coeur des étoiles.
Gamow reprend l’idée de Lemaître d’un univers primordial dans un état initial extrêmement chaud et dense, à une température supérieure à 109 K. Ce modèle d’univers a été appelé à postériori le modèle du Big Bang. L’idée de base du modèle de Gamow [12, 10], qu’il appelle la théorie du Ylem 1, est que tous les éléments présents dans l’univers ont été produits dans les premières minutes après le Big-Bang. Ce fluide primordial doit être composé de matière : protons, neutrons, électrons, et de photons en équilibre thermique. Les particules de ce fluide primordial sont en collisions continuelles et ces collisions déclenchent des réactions nucléaires avec production de noyaux de plus en plus complexes. Par ailleurs, il prédit que si l’univers a subi une phase chaude et dense, alors les fortes densités primordiales de l’univers ont dû engendrer un rayonnement qui est d’autant plus fort que l’univers est dense. En 1948, Gamow et son étudiant Ralph Alpher publient un article sur la théorie de la nucléosynthèse primordiale. Gamow propose à l’astrophysicien Hans Bethe de co-signer cet article, de manière à ce que les auteurs soient Alpher, Bethe, Gamow pour obtenir le célèbre titre αβγ paper [8].
Alpher et Herman poursuivent les travaux sur ce rayonnement fossile et réalisent que ce rayonnement doit posséder une distribution de corps noir parfaite à l’époque de l’univers primordial, et, encore aujourd’hui. Dans le cadre du modèle de la nucléosynthèse primordiale, ils publient un article [11] dans lequel ils expliquent que l’univers actuel doit baigner dans un bain de photons, provenant d’une époque antérieure plus chaude et plus dense, or comme l’univers est en expansion, la radiation par unité de volume se dilue et se refroidit avec le temps. Ils prédisent alors que ce rayonnement fossile a une signature propre et peut être détecté dans le domaine millimétrique aujourd’hui à une température de 5 K. Selon leur modèle, l’univers a pour densité de masse ρ, somme de la densité de matière ρm et de la radiation ρr. Pour un univers dominé par la matière, la densité de matière et le facteur d’échelle a sont reliés par∝ constante. Si l’univers contient une radiation de corps noir, nous obtenons alor ρmρ4 r/3 ∝ constante. (2.2.3)
Alpher et Herman expliquent l’abondance importante d’hélium observée aujourd’hui, soit 25% environ, par le fait que le deutérium doit être synthétisé en premier à une température d’environ 109 K. Pour cette température, ils déterminent les valeurs des densités de matière ρm ⋍ 10–6 g.cm–3 et de radiation ρr ⋍ 1 g.cm–3 dans l’univers primordial. La densité de matière actuelle mesurée par Hubble en 1936 est donnée par ρ ′ m ⋍ 10–30 g.cm–3 [97]. En utilisant l’équation 2.2.3, ils obtiennent ρ′r ⋍ 10–32 g.cm–3, ce qui correspond à une température de 5 K.
Alpher et Herman se renseignent sur l’existence de télescopes suffisamment sensibles pour détecter ce rayonnement et le distinguer d’un rayonnement émis par une source astrophysique. Mais, ils n’en trouvent aucun.
En 1949, E. Fermi et A. Turkhevitch ont montré que la théorie de Gamow n’est valable que pour des noyaux très légers : les noyaux de masse atomique 5 et 8 sont trop instables pour pouvoir former des noyaux plus lourds avant de se désintégrer [114] et ne peut expliquer la synthèse des éléments lourds. La théorie de Gamow va être rapidement oubliée.
Fred Hoyle et ses collègues proposent une théorie de combustion de l’hélium dans les géantes rouges. Cette théorie fournit une explication aux abondances des éléments lourds présents dans l’univers, et dans laquelle, comme le pensent la plupart des astrophysiciens à cette époque, une grande partie des éléments plus lourds que l’hélium sont synthétisés dans les étoiles. Ils proposent aussi un modèle alternatif concurrent au modèle du BigBang : une théorie de l’état stationnaire. Ce modèle est en expansion mais sa densité reste constante, la dilution étant compensée par la création continue de matière.
Au début des années 60, Martin Ryle, précurseur de la radio-astronomie, mesure un excès de radio-galaxies distantes. Or, dans la théorie d’univers stationnaire, l’univers contient des galaxies de tout âge, sans variation de densité et de luminosité, comme la matière est en permanence en création. Ce constat est confirmé avec la découverte à cette époque des quasars. Ces observations sont la preuve d’un univers différent dans le passé, comme prédit par le modèle du Big-Bang.
Le physicien Robert Dicke, personnage important dans le développement des radars pendant la seconde guerre mondiale, mais aussi à l’origine de plusieurs expériences pour tester les théories de la gravitation, propose le modèle de l’univers oscillant. Ce modèle est celui d’un univers constitué de phases d’expansion et de contraction. Au cours des phases de contraction, toute la matière produite au cours de la phase d’expansion précédente est comprimée jusqu’à une densité critique, résultant en un rebond. L’univers doit être suffisamment chaud et doit permettre la destruction de toute la matière produite dans la phase précédente. La conséquence de cet univers est l’existence d’un rayonnement de fond relique. Ce rayonnement de l’univers primordial chaud a été refroidi et est présent dans l’univers actuel à une température de quelques kelvin. Dicke réalise que ce rayonnement doit pouvoir être détecté aujourd’hui dans le domaine micro-onde. Il entreprend avec David Todd Wilkinson et Peter Roll la construction d’un instrument sur le toit d’un bâtiment de Princeton. En radio-astronomie, dans les années 60, la technique utilisée pour obtenir le signal d’intérêt est de faire pivoter l’instrument afin qu’il pointe, soit sur la source à observer, soit sur le côté, et de soustraire ces deux signaux pour éliminer tout signal de bruit. Cependant, cette méthode, dite source on, source off, n’est valable que dans le cas d’une source ponctuelle. L’idée de Wilkinson et de Roll est d’utiliser une source artificielle de corps noir appelée la référence froide (composée d’hélium liquide). La calibration s’effectue en comparant les deux mesures pour obtenir le signal d’intérêt. La source de calibration doit avoir une température proche de celle du rayonnement de fond cosmologique. James Peebles est alors chargé par Dicke d’estimer la température de ce rayonnement fossile. Il montre que l’univers est passé par une phase extrêmement chaude, et qu’il devrait subsister dans l’univers actuel un rayonnement relique à 10 K. Il détermine cette valeur sans connaître les travaux d’Alpher, Herman et Gamow réalisés 10 ans plus tôt.
|
Table des matières
Introduction
1 Introduction au modèle standard de la cosmologie
1.1 Emergence de la cosmologie moderne
1.1.1 Histoire brève de l’astronomie
1.1.2 Initiateurs de l’astronomie moderne
1.2 Les contributeurs de la cosmologie moderne
1.2.1 Récession des galaxies et homogénéité de l’univers
1.3 Le modèle du Big-Bang
1.3.1 Du principe cosmologique au modèle standard de la cosmologie
1.3.1.1 Métrique de Friedmann-Robertson-Walker
1.3.1.2 Equations de Friedmann-Lemaître
1.3.1.3 Paramètres cosmologiques
1.3.1.4 Solutions du modèle standard
1.3.1.5 Age de l’univers
1.3.1.6 Distances en cosmologie
1.3.1.7 Horizons en cosmologie
1.4 Histoire énergétique de l’univers
1.5 Le modèle ΛCDM
1.5.1 Les oscillations baryoniques acoustiques (BAO)
1.5.2 Cisaillement gravitationnel
1.5.3 La nucléosynthèse primordiale
1.5.4 Le diagramme de Hubble
1.5.5 L’étude des grandes structures
1.5.6 Le rayonnement de fond cosmologique
1.5.7 Discussion
1.6 Les limites du modèle
1.6.1 Le problème de la platitude
1.6.2 Le problème de l’horizon
1.6.3 Absence de monopôle et autres reliquats
1.7 L’inflation
1.7.1 Motivations
1.7.2 Equations du mouvement et solutions
1.7.3 Inflation à un champ en roulement lent
1.7.4 Durée de l’inflation
1.7.5 Fin de l’inflation : phase de réchauffement
1.7.6 Origine des fluctuations
1.7.6.1 Fluctuations scalaires
1.7.6.2 Perturbations tensorielles
1.7.7 Echelle d’énergie de l’inflation
1.7.8 Contraintes observationnelles
1.8 Discussion
2 Le rayonnement de fond cosmologique
2.1 Introduction au rayonnement de fond cosmologique
2.2 Des prédictions à la détection
2.3 Le rayonnement du fond diffus cosmologique
2.3.1 Dipôle du fond diffus cosmologique
2.4 Les anisotropies en température du fond diffus
2.4.1 Etude statistique du spectre des fluctuations de température
2.4.2 Les anisotropies primaires
2.4.3 Physique des anisotropies de température
2.4.4 Anisotropies secondaires
2.4.5 Les avant-plans
2.4.6 Statut des observations actuelles
2.5 Anisotropies en polarisation
2.5.0.1 Les paramètres de Stokes
2.5.0.2 Origine de la polarisation du rayonnement de fond cosmologique
2.5.0.3 Perturbations et figures de polarisation résultantes
2.5.0.4 Les champs E et B
2.5.0.5 Effets de diffusion et de gravité
2.5.1 Contraintes cosmologiques
2.6 Les modes B de polarisation du fond diffus
2.6.1 Pourquoi le smoking-gun ?
2.6.2 Champ de vue des expériences actuelles
2.7 Conclusion
3 L’instrument QUBIC – Concept de l’interférométrie bolométrique
3.1 L’interférométrie
3.1.1 Des fentes de Young au principe de l’interférométrie
3.1.2 Principe d’un interféromètre
3.1.2.1 Fonctions de cohérence – Théorème de Van Cittert – Zernike
3.1.2.2 Interféromètre à deux éléments
3.1.3 Le plan uv
3.1.4 Synthèse d’ouverture
3.1.5 Interférométrie multiplicative ou interférométrie additive
3.1.6 La sensibilité d’un interféromètre
3.1.7 Application aux interféromètres pour l’étude du fond diffus
3.2 Comparaison Interférométrie/Imagerie
3.2.1 Interférométrie
3.2.1.1 Avantages
3.2.1.2 Désavantages
3.2.2 Imagerie
3.2.2.1 Avantages
3.2.2.2 Désavantages
3.2.3 Effets systématiques
3.2.4 Conclusion
3.3 L’interférométrie bolométrique avec l’instrument QUBIC
3.3.1 Emergence du concept
3.3.2 L’instrument QUBIC
3.3.2.1 Le concept
3.3.2.2 Les composantes
3.3.2.2.0.1 Cryostat
3.3.2.2.0.2 Lame demi-onde achromatique
3.3.2.2.0.3 Matrice de cornets
3.3.2.2.0.4 Filtres
3.3.2.2.0.5 Interrupteurs
3.3.2.2.0.6 Combinateur optique
3.3.2.2.0.7 Chaine de détection
3.3.2.3 Les observables
3.3.3 Balayage du ciel et réalisation des cartes (map-making)
3.3.4 Sensibilité de l’instrument QUBIC
3.3.4.1 Sommation cohérente des lignes de base
3.3.4.2 Impact de la largeur de bande
3.3.4.3 Sensibilité
3.3.5 Calibration
3.3.6 Conclusion
4 Optimisation du combineur optique de l’instrument QUBIC
4.1 Descriptions générales
4.2 Rôle du combineur optique de l’instrument QUBIC
4.2.1 Combineur quasi-optique de Fizeau de l’instrument QUBIC
4.2.2 Contrainte sur la distance focale et le nombre de bolomètres
4.2.3 Spécifications du combineur optique de l’instrument QUBIC
4.2.4 Observables
4.3 Méthodes d’analyse du système optique
4.3.1 Formalisme des faisceaux gaussiens
4.3.2 Puissance couplée à chaque détecteur
4.4 Performances optiques du système en terme de sensibilité
4.4.1 Performance en sensibilité du concept optique retenu
4.4.2 Tolérances optiques pour différentes perturbations du télescope
4.4.2.1 Considérations générales
4.4.2.2 Méthode
4.4.2.3 Interprétation
4.4.3 Test de tolérance global
4.5 Conclusion
5 Self-calibration
5.1 Self-calibration en interférométrie
5.1.1 Les quantités de clôture
5.1.2 Principe générale de la méthode de la self-calibration
5.1.3 Principe de la méthode en utilisant la redondance d’un réseau d’antenne
5.2 Self-calibration avec l’instrument QUBIC
5.2.1 Modélisation des mesures dans le cas sans effet systématique
5.2.2 Modélisation des effets systématiques avec la matrice de Jones
5.2.2.1 Formalisme de Jones
5.2.3 Modélisation des mesures avec les effets systématiques
5.2.4 Application de la méthode à l’instrument QUBIC
5.3 Description de la simulation
5.4 Résultats
5.4.0.1 Reconstruction des images synthétiques
5.4.0.2 Histogrammes de l’écart type des paramètres reconstruits
5.4.0.3 Temps de calcul
5.4.0.4 Extrapolation de l’erreur sur les paramètres reconstruits
5.4.1 Extrapolation à l’instrument QUBIC
5.4.2 Impact des effets systématiques sur les paramètres de Stokes
5.4.3 Erreur sur les spectres de puissance des modes E et B
5.5 Discussion
6 Fabrication de cartes, estimation des spectres de puissance et perspectives
6.1 Simulation des données TOD (time ordered data)
6.2 Map-making
6.2.1 Méthode générale
6.2.2 Méthode spécifique à l’instrument QUBIC
6.2.3 Résultats
6.3 Estimation des spectres de puissance
6.3.1 Méthode générale
6.3.2 Méthode spécifique à l’instrument QUBIC
6.4 Récapitulatif et perspectives
Conclusion
Annexes
A Des équations d’Einstein aux équations de Friedmann-Lemaître
B Puissances de bruit
B.0.1 NEP (Noise equivalent power)
B.0.2 NET (Noise equivalent temperature)
B.0.3 Le rapport signal sur bruit
Bibliographie
Télécharger le rapport complet