Estimation de paramètres physiques à partir de leur représentation par une base de mesures de très grande dimension

Brève histoire de la classification spectrale

     La spectroscopie stellaire débute au milieu du XIXe siècle grâce aux premières observations du soleil effectuées par le physicien Joseph Van Fraunhofer en 1814. C’est cependant au britannique William Huggins que l’on attribue la paternité de cette science en raison du grand nombre d’observations qu’il a effectuées durant le siècle. Durant la seconde moitié du XIXe siècle, c’est avec le travail de Giovanni Battista Donati (Donati, 1863) que l’on envisage la possibilité d’une classification spectrale à partir des observations spectroscopiques des étoiles. Alors que la spectroscopie astrophysique se développe en Europe et aux États-Unis, avec G.B. Airy ou encore L.M. Rutherford , il convient de citer aussi un astronome italien, Pietro Angelo Secchi, qui fut l’un des observateurs ayant produit le plus d’observations de son époque. Il peut revendiquer la classification de près de 4 000 étoiles aux alentours de 1870. Secchi dénombra trois classes en fonctions de la température : la première correspondant aux étoiles chaudes, la seconde aux étoiles de “type solaire » et la troisième correspondant aux étoiles froides. On peut observer l’impact de la modification de la température sur les spectres en figure 1.1. Par la suite, en 1877, Secchi proposera cinq classes distinctes. De haut en bas, ces spectres correspondent à des étoiles de plus en plus froides. Pour cet exemple les trois autres paramètres sont fixés à log(g) = 4.5, [F e/H] = 0, et v sin(i) = 0. À partir de 1885, au Harvard College Observatory (États-Unis) et sous l’impulsion de Charles Pickering notamment, est développée et mise en place une campagne de mesures spectroscopiques majeure. Celle-ci conduira, dans un premier temps, au “système de Draper”, en hommage à Henry Draper, pionnier de l’astrophotographie. En effet, à partir du travail de classification de Pickering et de Fleming, des subdivisions aux classes de Secchi sont mises en évidence et un système de classification utilisant une série de seize lettres (incluant la classification des nébuleuses planétaires et “autres objets”) est alors adoptée. On doit à Annie J. Cannon, dès 1901, le système de classes spectrales appelé “système de Harvard”. Ce système, affiné jusqu’aux alentours de 1912, est basé sur l’utilisation des lettres O, B, A, F, G, K et M, encore en vigueur aujourd’hui, qui servent à désigner les étoiles des plus chaudes aux plus froides. Chacune de ces classes est aussi subdivisée en sous-classes, au moyen d’un chiffre compris entre 0 et 9. Ainsi, par exemple, le Soleil est une étoile de type spectral G2. Enfin, Le système de Morgan-Keenan-Kellman (Morgan et al., 1943), ajoute au système précédent une “classe de luminosité”. Cette dernière permet de distinguer les étoiles naines, des étoiles sous-géantes ou encore géantes, au moyen de l’ajout d’un chiffre en caractère romain au système de Harvard. Le Soleil est ainsi une étoile naine de type G2V alors que Bételgeuse sera une géante froide de type M2I, par exemple. La figure 1.2 montre en abscisses les types spectraux et en ordonnées les classes de luminosités dans le diagramme dit de Hertzsprung-Russell. On peut ainsi y voir la répartition des étoiles au sein des différentes classes. Au début du XXe siècle, les théories physiques permettant de comprendre la nature et l’apparence des spectres n’existent pas encore. Il faudra attendre l’apparition de la mécanique quantique, puis de la physique atomique et moléculaire, aux alentours de 1920-30, pour être en mesure d’analyser ces observations de façon non-empirique, avec par exemple (Saha, 1921). Une autre difficulté à cette époque réside dans le fait que, c’est “à la main” ou plutôt “à l’œil”, et à partir d’une inspection détaillée et fastidieuse des spectres enregistrés sur des plaques photographiques, que s’effectuaient les identifications des objets dans telle ou telle classe. La classification reposait sur l’existence et/ou l’intensité de certaines raies spectrales, et la comparaison avec les spectres des objets déjà classifiés. La figure 1.3 montre la variation de l’intensité des raies spectrales caractéristiques en fonction du type spectral, issues des premiers modèles théoriques du XXe siècle. Les ordonnées portent les classes de luminosités. Les lignes diagonales représentent des lignes d’iso-gravité. On peut observer que les étoiles ne sont pas uniformément réparties sur cet espace. On peut les classer en trois catégories. La première catégorie est la séquence principale allant du haut gauche au bas droit du graphique. C’est dans cette catégorie que se trouve notre soleil. Les deux autres catégories sont les géantes et les super géantes d’une part, et les naines blanches d’autre part.

Analyse en Composantes Principales

   L’ACP est une méthode dont le but est de trouver, pour des données, la suite ordonnée des axes orthogonaux qui maximisent la variance des données projetées (Jolliffe, 1986). Autrement dit l’ACP cherche à hiérarchiser les directions de l’espace des données en fonction de l’inertie 2 qu’elles portent lors de la projection des données. On obtient donc par l’ACP, la direction qui maximise la variance des données, puis la direction orthogonale à la première qui maximise le même critère, et ainsi de suite jusqu’à avoir autant de directions que la dimension de l’espace. En ne gardant que les premières directions, il est possible de réaliser une réduction de dimensionnalité.

Description de l’utilisation de l’ACP pour des problèmes de régression

    L’analyse en composantes principales (Jolliffe, 1986) s’inscrit comme la première étape, dans le problème de régression que nous étudions. On souhaite, grâce à celle-ci, représenter les données de la façon la plus pertinente pour permettre l’estimation des valeurs des paramètres. Ainsi, grâce à l’ACP, nous chercherons le sous-espace le plus pertinent possible pour une régression linéaire au sens des moindres carrés, ou d’autres approches permettant de tenir compte des non-linéarités comme une estimation au sens des “k-plus proches voisins » (k-PPV). Cette estimation par k-PPV consiste en une moyenne de la valeur du paramètre des individus, de la base de donnée de référence, dans un voisinage donné. Plus de détails sont présentés au paragraphe 3.1.2. L’association de l’ACP et de l’estimation au sens des k-PPV a pu montrer de bons résultats pour l’estimation de paramètres stellaires fondamentaux (Paletou et al., 2015a). Au chapitre 2, nous avons vu que l’ACP peut être utilisée dans un contexte de régression comme déterminant un espace de projection pour les données qui maximise leur variance. La ligne en pointillé matérialise la “cassure ». Ici trois valeurs propres sont bien plus élevées que toutes les autres et l’espace de projection le plus pertinent sera donc celui décrit par les trois vecteurs propres associés. La détermination de la dimension du sous-espace peut se faire de différentes manières. La décroissance des valeurs propres de la matrice de covariance des données Σ montre, suivant le niveau de bruit, une “cassure » (figure 3.1). Les premières valeurs propres sont beaucoup plus grandes que les suivantes. Les dernières valeurs propres, les plus “à droite », sont presque au même niveau et bien plus faibles que celles “à gauche » de la “cassure ». Ce cas se produit lorsque le niveau de bruit est suffisamment faible, c’est-à-dire que la variance dans les données est issue des différences entres les individus et que le bruit qui vient s’ajouter aux données n’a pas beaucoup d’impact sur ces différences. On peut alors déterminer la dimension optimale de l’espace des données comme étant égale au nombre de valeurs propres qui sont grandes par rapport aux autres (cf figure 3.1), car ce sont celles associées aux vecteurs propres qui portent l’information indépendante du bruit. La figure 3.1 montre que l’énergie (représentant la variance dans les données) est très concentrée dans les premières valeurs propres. Cela signifie qu’un espace de dimension 3 est suffisant pour représenter les données en conservant ainsi la variance intrinsèque des individus en éliminant une partie du bruit avec les composantes qui ne portent pas d’information. Le bruit, qui est dans ce cas “peu énergétique », est porté en majeure partie par les vecteurs propres associés aux six dernières valeurs propres. Si l’on se place dans le cas d’un fort niveau de bruit, on peut se retrouver dans la situation de la figure 3.2. Dans le cas d’un fort niveau de bruit que présente la figure 3.2, il est beaucoup plus difficile de savoir à partir de quelle composante l’expression de la puissance du bruit prend le dessus sur l’expression de la variance propre aux individus. Dans le cas où l’on a un fort niveau de bruit, on peut mesurer l’inertie 1 préservée et ainsi mettre un seuil en fonction du taux d’inertie que l’on accepte de perdre. Le problème est de trouver le bon taux d’inertie. Bien que ce ne soit pas optimal, fixer arbitrairement un seuil est possible. Si l’on connait la puissance du bruit, on peut déterminer à partir de quelle composante la variance des données ne reflète plus que l’expression du bruit, et fixer un seuil de manière pertinente en se basant sur cet a priori. Nous verrons que ce n’est pas le cas des données que l’on souhaite traiter. Nous opterons plutôt pour un protocole de validation croisée . Le problème de cette approche est qu’elle dépend fortement de la méthode d’estimation qui suit. Un nombre de composantes optimal pour une estimation locale au sens des k-plus proches voisins n’a aucune raison d’être optimal dans le cadre d’une régression linéaire. Nous réappliquerons donc ce protocole pour chaque méthode d’estimation employée.

Conclusion sur l’utilisation de SIR

   L’emploi de SIR pour l’estimation de paramètres stellaires fondamentaux présente un intérêt démontré par les résultats présentés précédement. En effet, cette méthode permet, à l’instar de l’ACP, de traiter les données sans avoir nécessairement connaissance de leur nature. Il n’est jamais nécessaire d’apporter une éventuelle connaissance d’un modèle mathématique ou d’un lien fonctionnel quelconque entre les données et les paramètres. Par contre, par rapport à l’ACP, SIR prend en compte la connaissance des valeurs de paramètres de la base de référence au moment de la construction du sous-espace. L’emploi de SIR permet donc d’obtenir de meilleurs résultats qu’avec l’ACP et ce malgré la difficulté posée par le conditionnement de la matrice de variance-covariance Σ. La sélection des directions, pertinentes quant à elles, présente surtout un intérêt à faible rapport signal sur bruit. L’hypothèse de départ est que l’information qui nous intéresse n’est pas toujours portée par les mêmes directions. Les premières directions peuvent dans certaines zones du sous-espace être davantage porteuses de bruit et il est attendu que cette hypothèse se vérifie mieux lorsque le bruit est puissant. L’approche par sélection des directions peut aussi avoir un intérêt périphérique à cette étude. Il est effectivement possible de l’employer dans un contexte de compression de l’information. On peut, grâce à cette sélection, avoir une information tout aussi précise en conservant moins de données. L’étude comparative de l’ACP et de SIR pour la détermination de paramètres physiques à partir d’une base de données de référence a, par ailleurs, donné lieu aux publications qui suivent aux conférences ECMSM (Watson et al., 2017a) et Gretsi (Watson et al., 2017b).

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
1 Contexte astrophysique 
1.1 Brève histoire de la classification spectrale
1.2 Classification spectrale et paramètres stellaires fondamentaux
1.3 À propos des données astrophysiques étudiées
2 Méthodes de traitement statistique de données 
2.1 Analyse en Composantes Principales
2.1.1 Principe
2.1.2 Mise en œuvre
2.1.3 Propriétés
2.2 Regression inverse par tranches (SIR)
2.2.1 Principe
2.2.2 Mise en œuvre
2.2.3 Propriétés
2.2.4 Conditionnement de la matrice de covariance
2.3 Moindres carrés partiels
2.3.1 Principe
2.3.2 Mise en œuvre
2.3.3 Propriétés
2.4 MATISSE
2.4.1 Principe
2.4.2 Mise en œuvre
2.4.3 Propriétés
2.5 Conclusion
3 Régression basée sur l’ACP 
3.1 Description de l’utilisation de l’ACP pour des problèmes de régression
3.1.1 Choix du nombre de composantes
3.1.2 Choix de la méthode d’estimation
3.2 Particularité du traitement de données non-linéaires
3.2.1 Régression non-lineaire
3.2.2 Régression linéaire locale
3.2.3 Estimation basée sur les k-plus proches voisins
3.2.4 Sélection de directions pertinentes
3.3 Validation des approches
3.3.1 Cas d’un problème linéaire
3.3.2 Cas d’un problème non-linéaire
3.3.3 Cas d’un problème complexe
3.4 Application aux données astrophysiques
3.5 Sélection de directions sur données observées
3.5.1 Température effective (Teff)
3.5.2 Gravité de surface (log(g))
3.5.3 Métallicité ([F e/H])
3.5.4 Vitesse de rotation projetée (v sin(i))
3.6 Conclusion
4 Apport de la régression inverse par tranches (SIR) 
4.1 Cas d’un problème linéaire
4.1.1 Régressions locales
4.1.2 k-plus proches voisins
4.1.3 Conclusion sur l’exemple linéaire
4.2 Cas d’un problème non-linéaire
4.2.1 Régressions locales
4.2.2 k-plus proches voisins
4.2.3 Sélection de directions pertinentes
4.3 Cas d’un problème complexe
4.4 Application sur des données synthétiques
4.5 Application aux données réelles
4.6 Conclusion sur l’utilisation de SIR
5 Étude comparative 
5.1 Méthodes de référence
5.1.1 Moindres carrés partiels
5.1.2 MATISSE
5.2 Tables comparatives
Conclusion
Bibliographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *