Modélisation et reconstruction des amas de galaxies dans le domaine optique/infrarouge

À l’instar de la géologie ou de la paléontologie, la cosmologie est une science qui avance pour regarder plus loin dans le passé. Tandis que les deux premières disciplines tentent de décrire l’évolution de la Terre et de ses habitants, la cosmologie tente de décrire l’Univers et son Histoire. Les avancées technologiques aidant, les vingt dernières années furent le théâtre de grandes découvertes. Parmi elles, la découverte de l’énergie noire par Riess et al.(1998) ainsi que Perlmutter et al. (1999) au travers de l’observation des supernovae. En ajoutant cette quantité dans le modèle standard de la cosmologie, plus de 90% de l’énergie totale provient de sources inconnues (L’autre composante étant la matière noire).

La nature de cette énergie est une des grandes énigmes qu’on essaie de comprendre actuellement en utilisant plusieurs sondes observationnelles. Les amas de galaxies sont une de ces sondes au même titre que l’étude du pic des BAO, les supernovae ainsi que l’étude de la distribution de la matière au travers de l’effet de lentillage faible (weak-lensing). Mon travail fut axé sur la première de ces sondes. Les amas de galaxies sont des objets fascinants autant par leur relation aux propriétés primordiales de l’Univers qu’à leur sensibilité à l’évolution de ce dernier tout au long de son Histoire.

Le modèle cosmologique

Bienvenue dans la plus belle histoire de tous les temps

Je vais essayer de raconter la vie de l’univers observable au travers de l’évolution des perturbations qui y vivent. Je m’intéresserai tout particulièrement à ces dernières car sans elles les structures ne seraient pas ce quelles sont et nous ne serions pas là pour en parler. Je vais axer ma présentation sur les inhomogénéités ce qui ne doit pas faire oublier que l’Univers est principalement homogène et isotrope (en fait statistiquement homogène et isotrope, je reviendrai sur ce point par la suite). La cosmologie est à la fois la science la plus ancienne et la plus récente. Une des premières questions que se sont posée les premiers Hommes doués de réflexion se rapportait à la voûte céleste. Très longtemps les étoiles ont formé dans le ciel les images des croyances les plus diverses. La cosmologie moderne porte quant à elle sur trois piliers observationnels fondateurs :
– l’observation de l’expansion de l’Univers par Edwin Hubble en 1929 et 1931 (Hubble, 1929) et (Hubble & Humason, 1931)
– l’observation du fond diffus cosmologique par Penzias & Wilson (1965)
– l’observation des quantités relatives entre les éléments les plus légers de l’Univers .

L’observation de la loi éponyme de Hubble, qui nous dit que tous les objets extragalactiques s’éloignent de nous avec une vitesse proportionnelle à leur distance depuis notre position, a été un grand tournant dans notre vision de l’Univers. En effet, cette loi met en évidence la nature non-statique de l’Univers car elle peut difficilement s’expliquer par un effet de répartition de la matière, bien que des modèles comme les «Swiss-cheese Universe» vont en ce sens, et doit donc s’expliquer par un effet local, égal en tout point au même instant, intégré sur la ligne de visée. C’est la façon la plus intuitive d’expliquer un phénomène proportionnel à la distance séparant l’objet de l’observateur. Dans le cadre de la relativité générale, cela s’exprime par l’introduction d’un facteur d’échelle qui est finalement la préoccupation majeure des cosmologistes depuis son introduction et j’en reparlerai donc tout au long de ma thèse. Ce facteur agit comme un multiplicateur sur les dimensions d’espaces augmentant un volume considéré. La seconde implication des observations de Hubble est la question de la densité du contenu énergétique de l’Univers. En effet, si on croit à la conservation de l’énergie et que l’on modifie le volume de l’univers observable, on modifie également la densité d’énergie de ce dernier. De plus, l’observation montrant que l’Univers est en expansion, implique que l’univers observable était contenu dans un volume plus petit dans le passé. Si on extrapole loin dans le passé, l’Univers peut atteindre une densité ainsi qu’une température infinie. C’est justement cette réflexion qui est à la base des modèles de type «Big-Bang». Ce nom fut donné sarcastiquement par Fred Hoyle à la fin des années 1940 pour ce genre de modèle qui semble donner un instant initial à l’Univers. Dans ces conditions initiales extrêmes, les particules (quarks et gluons sous forme de neutrons et protons, électrons) ont pu former les premiers noyaux légers dans des quantités relatives prédictibles en fonction du modèle choisi, c’est ce qu’on appelle la nucléosynthèse primordiale. Enfin, l’Univers étant tellement chaud à cette époque, les photons du bain thermique sont suffisamment énergétiques pour empêcher les électrons de se coupler aux noyaux afin de former des atomes. Ainsi, l’Univers doit être opaque à la propagation des photons, à la manière du brouillard vis a vis de la lumière visible, tant qu’il ne se reffroidit pas suffisamment. L’expansion de l’Univers aidant, la température diminue jusqu’à devenir insuffisante pour garder tout ce petit monde sous forme ionisée et permettre donc aux atomes de se former. Les électrons libres n’étant plus, les photons peuvent à partir de ce moment voyager librement. Ces photons doivent alors être observables aujourd’hui et c’est justement ce qu’ont vu Penzias et Wilson (1965), ce qu’on appelle le rayonnement du fond diffus cosmologique (que j’appelerai CMB  par la suite). Ce rayonnement a la même température jusqu’à la troisième décimale TCMB = 2, 728K quelle que soit la direction ce qui est l’observation par excellence de l’homogénéité et de l’isotropie de l’Univers.

La cosmologie de précision est arrivée pour sa part dans les années 1990 avec la mesure de structures dans le CMB, liées à des perturbations primordiales prédites dans les modèles, par le satellite COBE ce qui valut le prix Nobel à George Smoot (responsable de l’instrument DMR) en 2006. Ce résultat met en évidence que l’Univers, bien qu’homogène au premier abord à cette période, possède déjà en son sein les perturbations dans lesquelles vont se former les structures telles que les galaxies, les amas de galaxies et les grands filaments de matière que l’on observe à notre époque. Dans la continuité, un travail similaire à celui de Hubble a été réalisé par deux équipes sur les supernovae afin d’aller beaucoup plus loin. Cette étude montra en 1998 que l’Univers est en expansion accélérée. Cela amène à l’introduction d’une énergie aux propriétés assez bizarres que l’on appelle, par méconnaissance de celle-ci, énergie noire. Puis en 2001, le satellite WMAP étudia plus précisément les anisotropies du CMB ce qui mit en évidence la quantité majoritaire de matière noire, sous forme de particules non standards  , dans l’ensemble de l’Univers et qui serait également nécessaire pour la formation des grandes structures de notre Univers. Ces différentes observations majeures ont conduit à l’introduction en grande quantité de la matière noire et de l’énergie noire. Elles représentent à elles deux 95% du contenu énergétique de l’Univers aujourd’hui. On comprend alors que les enjeux actuels de la physique des hautes énergies incorporent la compréhension de ces deux quantités.

Quelques bases pour commencer 

Comme dit précédemment, la relativité générale est le cadre adapté pour décrire notre Univers. La relativité permet de décrire l’Univers avec une topologie non triviale, évolutive et surtout qui dépend de son contenu énergétique. Le cadre théorique dépend donc de ce que l’on observe dans l’Univers. Il est en ce sens bien compliqué de dissocier la théorie des observations dans la présentation d’un modèle cosmologique. En d’autres termes, l’observation d’une nouvelle source d’énergie (par exemple la matière noire) implique une modification des équations du cadre théorique. Ceci fait que l’observation d’un nouveau comportement de l’Univers peut être interprété soit par la présence d’une nouvelle énergie, aussi étrange soit-elle, soit par une modification du cadre en lui même et donc d’une remise en question de la relativité générale telle qu’on l’utilise actuellement. Cela se comprendra directement en regardant les équations d’Einstein . Cette spécificité de la cosmologie se retrouve également dans la philosophie même de cette science car c’est le seul domaine qui observe son sujet depuis l’intérieur.

La relativité générale 

En 1916, Albert Einstein (Einstein, 1916) publie ses travaux sur la relativité générale onze ans après avoir unifié l’espace et le temps en un seul objet (l’espace-temps) au travers de la relativité restreinte. Cette fois, ce sont les propriétés géométriques globales de l’espace temps qu’il relie à son contenu énergétique. Il s’agit d’une introduction de la matière (au sens gravitationnel du terme) dans le cadre de la relativité restreinte. Mais contrairement à l’interprétation newtonienne de la gravitation, elle n’est plus considérée ici comme une force mais comme un effet géométrique. C’est la fameuse courbure de l’espace-temps. Une variété d’espace-temps sans matière est décrite par la métrique de Minkowski :

ds² = c²dt² − dx² − dy² − dz² = c²dt² − dr² , (I.1)

où le terme ds² est appelé «l’élément de distance» invariant. En effet, la partie spatiale seule ne permet pas en relativité de définir un intervalle invariant par changement de référentiel à cause du couplage avec le temps. Or, on veut que la distance entre deux événements (on ne peut plus parler de points mais on doit leur associer un temps ce qui donne un événement) ne varie pas en faisant un changement de référentiel. C’est donc cette quantité qui définit l’intervalle de « distance » au sens relativiste.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
I Le modèle cosmologique
I.1 Bienvenue dans la plus belle histoire de tous les temps
I.1.1 Quelques bases pour commencer
I.1.2 Redshift et distances en cosmologie
I.1.3 Paramètres cosmologiques
I.1.4 Problèmes du modèle et nécessité de l’inflation
I.1.5 Nucléosynthèse primordiale et CMB
I.2 L’Univers vue par les perturbations
I.2.1 Inflation, génération des perturbations
I.2.2 Evolution dans le plasma
I.2.3 Spectre de température du CMB
I.2.4 Polarisation du CMB, mise en évidence de l’oscillation de la matière
I.2.5 Vers la formation des structures, la réionisation
I.2.6 Un petit mot de la line of sight approach
II Les structures dans l’Univers
II.1 Evolution linéaire
II.2 Un mot rapide sur les BAO
II.3 Formation des amas de galaxies
II.4 Fonction de masse
II.4.1 Fonction de masse de Press-Schechter
II.4.2 Les autres fonctions de masse
II.5 Les amas de galaxies
II.5.1 De Messier à Planck
II.5.2 Description des composantes des amas
II.5.3 Différentes observations des amas
II.6 La cosmologie avec les amas
II.6.1 Comptage des amas
II.6.2 Rapport masse sur luminosité
II.6.3 Fraction de gaz
II.6.4 Distance angulaire
III Les expériences
III.1 Le satellite Planck
III.2 Sloan Digital Sky Survey (SDSS)
III.3 Large Synoptic Survey Télescope (LSST)
IV Modélisation
IV.1 Extension du modèle Optique/Infrarouge
IV.1.1 Hypothèses utilisées
IV.1.2 Test du modèle
IV.2 Simulations
IV.2.1 Simulations du premier ordre
IV.2.2 Simulations Monte-Carlo
V Algorithme de reconstruction des amas
V.1 Algorithme
V.1.1 Sélection des galaxies elliptiques
V.1.2 Construction des amas potentiels
V.1.3 Étude des amas potentiels
V.2 Comparaison sur les amas proches (z < 0, 3)
V.2.1 Construction du catalogue MaxBCG
V.2.2 Test sur le catalogue
V.3 Calibration
V.3.1 Constitution du catalogue simulé
V.3.2 Application de l’algorithme sur le catalogue
V.3.3 Application de la méthode sur le catalogue simulé
V.4 Comparaison avec les amas lointains (z > 0, 3)
V.4.1 Construction du catalogue WHL
V.4.2 Comparaison avec mon algorithme
V.4.3 Travail sur les amas X
V.5 Catalogue aléatoire
VI Conclusion et perspectives
VI.1 Conclusion
VI.2 Perspectives
VI.2.1 Amélioration de l’algorithme de reconstruction
VI.2.2 Application à d’autres expériences
VI.2.3 Amélioration des simulations
VI.2.4 Calibration de la CLF à haut redshift
VI.2.5 Idées à creuser
Conclusion
Annexes

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *