L’homme a toujours été fasciné par l’origine de l’Univers, sa formation, jusqu’à l’apparition de la vie sur terre. Désirant se positionner dans l’immensité et chercher sa place parmi toutes les beautés du ciel nocturne, de la même manière que sa curiosité l’a poussé à parcourir le monde à la recherche de nouveaux continents, l’homme s’est mis à cartographier, répertorier et analyser les objets qui remplissent sa vision. Si les civilisations successives ont attribué des noms et des sens différents à chaque partie du ciel, il n’en reste pas moins que parallèlement progressaient la description et la connaissance de l’Univers observable. Au 20ième siècle naît la cosmologie, science qui consiste à étudier l’Univers et son évolution dans son ensemble. Comme toute science, ses découvertes, observationnelles ou théoriques la font évoluer jusqu’à lui rendre la possibilité de faire des prédictions. Depuis plus d’une décennie, les avancées technologiques ont permis d’augmenter la surface collectrice des télescopes, la résolution spatiale et la sensibilité des détecteurs. Le développement des capacités de traitement, d’analyse, d’archivage et de circulation de l’information sont allés de pair permettant l’observation du ciel avec toujours plus de détails. La cosmologie observationnelle a ainsi réalisé de grandes avancées dans la compréhension des différentes composantes astrophysiques, depuis le proche environnement de notre Système Solaire, de notre Galaxie, jusqu’aux fluctuations du fond cosmologique, en passant par l’émission des galaxies et des amas.
Un des domaines en pleine mutation concerne l’étude de la formation des grandes structures que l’on observe dans l’Univers. Dans un Univers en expansion, les structures se forment (galaxies, amas de galaxies et super amas) et évoluent selon leur masse et en fonction de leur environnement. L’observation et l’étude de ces structures sont importantes pour comprendre où et comment se forment les galaxies. Il est aussi nécessaire de pouvoir “remonter” la flèche du temps pour ainsi retracer l’évolution de ces structures et pouvoir dater les époques importantes de formation des galaxies. Pour cela, de grands sondages du ciel sont réalisés. Leur but est d’observer un très grand nombre de galaxies, et de mesurer leurs distances, ou encore de les positionner dans le temps, pour reconstituer ces structures à trois dimensions. Le sondage VIMOSVLT Deep Survey (VVDS) se propose justement d’ajouter sa pierre à cet édifice pharaonique en observant les premières structures de l’Univers, telles quelles étaient quand celui-ci n’était âgé que d’environ un milliard d’années. L’analyse des galaxies observées permet de sonder l’Univers sur près de 90% de son âge et ainsi de suivre la formation et l’évolution des structures. C’est la première fois qu’une étude sur une si grande plage de temps est réalisée, et avec un minimum d’a priori sur les galaxies observées, les résultats n’en étant alors que plus représentatif des propriétés de l’Univers.
Scénario et modèles cosmologiques
Cosmogonie
Voici 2300 ans, Epicurus (341-270 avant J.-C.) se demandait si d’autres mondes identiques et/ou différent du notre pouvaient exister quelque part ailleurs, cachés derrière les étoiles, alors qu’Aristote (384-322 avant J.-C.) enseignait qu’il n’en existait qu’un. De longs débats ont eu lieu depuis quant à la nature de l’Univers et notre position dans celui-ci, les arguments s’appuyant sur les connaissances de l’époque, mais jamais traduites en terme de physique.
Voici plus de 200 ans, une seule galaxie était considérée. L’idée de galaxie venait d’être lancée par Thomas Wright en 1750. En 1785, William Herschel en dessina une carte en considérant le soleil comme proche de son centre. Ainsi quelques années à peine après la réhabilitation de Galilée (1757) et du système héliocentrique de Copernic dans lequel toutes les planètes tournent autour du soleil, un nouveau débat s’installe : celui de la place du soleil. Alors que Kant croit en l’existence d’autres “Univers-îles” à l’extérieur de la Voie Lactée, l’idée d’une seule galaxie persiste jusqu’au début du 20ième siècle avec l’Univers de Kaypen. Cette controverse culmine avec le grand débat entre Curtis et Shapley, partisan d’une seule super galaxie. Elle fut close par Edwin P. Hubble en 1928 qui mesura la distance de nébuleuses grâce aux étoiles variables Cépéïdes dont la relation luminositédistance fut établi par Henrietta Leavitt peu auparavant en 1912. À partir de là, le décalage vers les grandes longueurs d’onde (redshift) du spectre émis par une galaxie qui s’éloigne étant connu, Hubble établit la loi qui porte son nom, à savoir que la vitesse de récession des galaxies est proportionnelle à leur distance (d’un facteur H mesuré pour la première fois par Hubble égal à 540 km.s−1 .Mpc−1 ). Toutes les galaxies semblent s’éloigner. Hubble observe un Univers en expansion. Il note aussi que cet Univers semble homogène et isotrope. Mais les premiers sondages systématiques conduisent à la découverte de nombreux amas, et même groupes d’amas de galaxies. Les premières idées de modélisation de l’Univers pouvaient être lancées.
Les modèles d’Univers
Parralèlement à ces observations, un cadre théorique se met en place. Tout d’abord, il y a un siècle, Albert Einstein découvre la relativité. En 1915, il publie la théorie géométrique de la relativité générale. Il développe un modèle d’Univers et introduit le principe cosmologique. Celui-ci dit que l’Univers est homogène et isotrope et le temps universel. Ceci permet de définir une métrique dans l’espace-temps et d’établir des relations théoriques, les équations d’Einstein, entre la courbure de l’Univers et son contenu en énergie-matière.
Formation des grandes structures de l’Univers
Modèles hiérarchiques
Plusieurs facteurs importants supportent notre vision actuelle de la formation des structures dans l’Univers. En voici quelques exemples :
– la découverte par Hubble en 1928 d’une relation linéaire entre la vitesse et la distance des galaxies, relation interprétée comme le résultat de l’expansion de l’Univers au travers des équations de Friedmann-Lemaitre qui décrivent un Univers homogène et isotrope.
– la découverte par hasard en 1965 par Penzias et Wilson du rayonnement cosmologique (Cosmic Microwave Background – CMB) à 2.728±0.004 K (Spergel et al., 2003), décrit d’un point de vue théorique dès 1940 par Gamow. Le CMB correspond au rayonnement émis suite au découplage avec la matière lorsque les électrons et protons se sont recombinés de part le refroidissement de l’Univers du à son expansion.
– l’observation en 1992 par le satellite COBE (Cosmic Background Explorer) de ce dernier. La découverte de fluctuations de température, de l’ordre de ∆T/T ∼ 10⁻⁵ , sur tout le ciel, apportant des informations importantes sur les conditions initiales de formation des structures.
Avant d’aller plus loin, il est important de rappeler que l’étude directe de la distribution de la matière dans l’Univers est celle de la matière visible. Près de 83% de la matière réellement présente nous échappe (Ωb/Ωm ≃ 0.17, Spergel et al. (2003)). Heureusement, il est possible d’étudier cette matière noire par l’influence gravitationnelle qu’elle joue sur les structures, l’expansion de l’Univers, et courbes de vitesse des galaxies. Elle a en effet été mise en évidence par l’étude des courbes de rotation des galaxies pour lesquelles la vitesse reste constante et importante en périphérie de la structure visible de la galaxie alors qu’elle devrait diminuer si l’on ne tient compte que de la masse visible (lois de Kepler). À l’échelle des amas, la dispersion de vitesse des galaxies et la distorsion des galaxies d’arrière plan par effet de lentille gravitationnelle trahit la présence d’une matière massive invisible.
On retiendra deux sortes de matière noire : l’une froide qui intervient dans les modèles CDM (pour Cold Dark Matter) et l’autre chaude dans les modèles HDM (pour Hot Dark Matter). La “température” de cette matière invisible donne une image de la vitesse et de la masse des particules qui la constitue. Dans un modèle CDM, les fluctuations initiales du champ de densité (dont le CMB est une représentation) se sont condensées en petites structures sous l’effet de la gravitation. Et pour les mêmes raisons, elles se sont effondrées à leur tour pour former des halos de plus grandes masses, lieux de formation des galaxies. C’est le modèle “hiérarchique”. Dans un modèle HDM, ce sont les grandes structures initiales qui se sont subdivisées. C’est le modèle “monolithique”. Actuellement, le scénario privilégié est celui du CDM muni d’une constante cosmologique. Dans ce modèle, les fluctuations primordiales sont supposées gaussiennes et adiabatiques et son spectre de puissance P(k) peut être calculé. Les gros halos de matière se forment par fusion de halos plus petits. Les plus grosses structures non-linéaires actuelles sont les amas de galaxies. Les filaments et super-amas sont eux encore à un stade de croissance linéaire. L’observation de galaxies à grand redshifts semble favoriser un tel scénario .
Concept et notion de biais
Jusqu’au début des années 1980, l’hypothèse généralement faite était que les galaxies tracent le champ de distribution de la masse présente dans l’Univers. Puisque ce champ est continu, les galaxies représentent alors un échantillonnage poissonnien de celui-ci. Dans un volume V, le nombre de galaxies observées est alors proportionnel à la masse présente. Or on observe que le regroupement des amas, mesuré au moyen de la fonction de corrélation spatiale est plus important que celui des galaxies. Les amas sont ∼12 fois plus corrélés que les galaxies. La distribution à grande échelle de la matière n’est donc pas tracée de la même façon par les amas et les galaxies. Et rien ne dit qui des amas ou des galaxies suit le mieux le champ de densité. Ce fut la raison principale qui amena Kaiser (1984) à introduire le concept de biais et la théorie des pics. La formation des galaxies et des amas ne pouvant être le résultat de conditions initiales particulières différentes, les amas ont du se former là où, localement, les fluctuations du champ de densité étaient très importantes, au delà d’un seuil critique. Cela explique ainsi une amplitude de corrélation des amas plus élevée que celle de la matière noire. D’autres arguments en faveur d’une distribution biaisée des galaxies sont par exemple la dépendance de l’amplitude de la fonction de corrélation des galaxies en fonction de leur nature luminosité , type morphologique , couleur, type spectral .
|
Table des matières
Introduction
1 Distribution des galaxies à grande échelle
1.1 Scénario et modèles cosmologiques
1.1.1 Cosmogonie
1.1.2 Les modèles d’Univers
1.2 Formation des grandes structures de l’Univers
1.2.1 Modèles hiérarchiques
1.2.2 Concept et notion de biais
1.3 Observation des grandes structures
1.3.1 Une vision multi-longueur d’onde des galaxies
1.3.2 Une vision tridimensionnelle de l’Univers
1.3.3 Structures dans l’Univers proche (z . 0.3)
1.3.4 Structures dans l’Univers lointain (z & 0.3)
1.4 La fonction de corrélation à 2 points : un outil majeur
1.4.1 Un outil pour quantifier la distribution des galaxies et de la matière : définition et estimateur
1.4.2 Fonction de sélection et comparaison des mesures
1.4.2.1 Population globale
1.4.2.2 Sélection en fonction de la luminosité absolue
1.4.2.3 Sélection en fonction du type
1.4.2.4 Galaxies à discontinuité Lyman (LBG)
1.4.2.5 Galaxies EROs
1.4.3 Fonction de corrélation et biais
1.5 État des lieux : mesures de l’agrégation des galaxies
1.5.1 Dans l’Univers proche
1.5.1.1 Population globale
1.5.1.2 Les amas
1.5.1.3 En fonction de la luminosité
1.5.1.4 En fonction du type morphologique
1.5.1.5 En fonction de la couleur/type spectral
1.5.1.6 Synthèse
1.5.2 À grand décalage spectral
1.5.2.1 Population globale
1.5.2.2 Les galaxies à discontinuité Lyman
1.5.2.3 Les galaxies extrêmement rouges
1.6 Évolution des grandes structures : prévision des modèles
1.7 Synthèse
2 Le sondage profond VIMOS-VLT Deep Survey
2.1 Des sondages d’Univers lointain
2.2 Le sondage spectroscopique profond VVDS
2.2.1 But et stratégie
2.2.2 L’instrument VIMOS
2.2.2.1 Imagerie et spectroscopie multi-objet
2.2.2.2 Spectroscopie intégrale de champ
2.2.3 Observations
2.3 Réduction des données spectroscopiques et détermination des redshifts
2.3.1 Réduction des données
2.3.2 Détermination des redshifts
2.3.2.1 Raies en émission, en absorption
2.3.2.2 Méthodologie
2.3.2.3 Indices de confiance
2.3.2.4 Exemple de spectres
2.4 Première campagne d’observation : les données
2.4.1 Les champs Deep
2.4.1.1 Le VVDS-02h
2.4.1.2 Le Chandra Deep Field South
2.4.2 Les champs Wide
3 Agrégation des galaxies : outil de mesure et erreurs associées
3.1 La fonction de corrélation spatiale
3.1.1 ξ(rp,π) à 2 dimensions
3.1.2 La projection wp(rp)
3.2 Contraintes observationnelles propres au VVDS
3.2.1 Les masques photométriques
3.2.2 Le critère de sélection observationnelle
3.2.3 La sélection des cibles
3.2.4 L’incertitude sur la mesure du redshift
3.2.5 L’incomplétude spectroscopique
3.3 ξ(rp,π) : l’outil de mesure
3.3.1 Le catalogue de points générés aléatoirement
3.3.2 L’attribution d’un poids à chaque galaxie
3.3.3 Le calcul des distances et l’échantillonnage
3.4 Mesure des paramètres r0 et γ
Conclusion