L’électronique du détecteur de surface de l’observatoire Pierre AUGER Une approche orientée système

LE PROJET DE L’OBSERVATOIRE PIERRE AUGER

L’observatoire Pierre Auger est un projet de détecteur de rayons cosmiques destiné à explorer un domaine de l’astrophysique dont la compréhension échappe à la communauté scientifique depuis plus de trente-cinq ans. L’objectif de l’expérience est l’observation des rayonnements cosmiques de haute énergie (> 10¹⁹ électrons Volts ou eV*), qui sont probablement la manifestation des phénomènes les plus violents existants dans l’univers. Il s’agit là d’une énergie exceptionnelle, 100 millions de fois plus élevée que celle atteinte auprès desaccélérateurs les plus puissants construits ou même envisagés dans le futur. Cette énergie de plusieurs dizaines de joules (celle d’une balle de tennis servie par un champion ou un tir de penalty avec un ballon de football) est une énergie macroscopique, exceptionnelle pour une particule microscopique. Mais, pour une particule de cette énergie, l’univers est relativement opaque à cause du rayonnement fossile (à 2,7°K) qui le baigne et qui est « une  relique du big bang ». En effet, au dessus de 5×10¹⁹  eV, la perte d’énergie par collisions entre les rayons cosmiques et les photons de ce rayonnement devient très importante et les particules ne peuvent parcourir que des distances relativement faibles (à l’échelle cosmologique s’entend), de l’ordre de quelques dizaines de mégaparsecs (1 parsec = 3 années-lumière) qui est  typiquement la taille du  superamas local auquel appartient notre galaxie. Cette coupure enénergie au delà  de laquelle tout rayon cosmique d’énergie supérieure à 5×10¹⁹  eV devrait être arrêté en interagissant avec le fond diffus cosmologique est appelée coupure GZK (des initiales de leurs inventeurs : Greisen, Zatsepin et Kuzmin). Donc, en théorie,  des rayons cosmiques de très haute énergie ne devraient pas arriver dans l’atmosphère terrestre, ou du moins on devrait observer ces sources qui devraient être proches. Hors ces trente dernières années plusieurs évènements de très hautes énergies ont été observés. On est donc devant un problème extrêmement rare en physique : une  observation expérimentale irréfutable qui résiste à l’interprétation théorique pendant plus d’un tiers de siècle. On sait que les sources de  ces rayons cosmiques existent, et qu’elles sont proches de nous, mais on n’a aucune idée de ce qu’elles peuventêtre ni où elles se trouvent exactement. C’est à ces phénomènes, les plus violents  existant dans l’univers, que le projet de détecteur « Observatoire Pierre Auger » se propose d’apporter des réponses.

La réalisation de cet observatoire, initiée par deux physiciens, Alan Watson et Jim Cronin (Prix Nobel de physique en 1980) mobilise une collaboration de près d’une vingtaine de pays et environ trois cents physiciens et ingénieurs ; C’est la première collaboration de dimension réellement mondiale dans ce domaine. Le projet porte le nom de Pierre Auger en hommage à ce physicien français mondialement connu pour ses activités dans les domaines de la physique nucléaire et celui des rayons cosmiques (Il a mis en évidence l’existence des gerbes atmosphériques en détectant des coïncidences c’est-à-dire des particules arrivant en même temps dans plusieurs détecteurs espacés les uns des autres).

Nature et détection des rayons cosmiques 

Les rayons cosmiques sont simplement des particules ordinaires (noyaux atomiques, photons, neutrinos) produites par des mécanismes astrophysiques plus ou moins violents, qui peuvent aller des réactions de fusion au coeur des étoiles à des phénomènes exceptionnels provoqués par des trous noirs se trouvant au centre de certaines galaxies (noyaux actifs) en passant par des supernovae (effondrement d’étoiles à bout de « carburant »), des collisions de galaxies, etc. Ces particules transportent avec elles des informations (leur énergie, direction, composition chimique…) qui permettent de remonter aux mécanismes qui sont à leur origine et qui sont le seul moyen dont nous disposons pour comprendre ces derniers. En effet, contrairement à la plupart des autres domaines de la recherche fondamentale, l’astrophysique a la particularité d’échapper complètement au contrôle de l’expérimentateur qui ne peut provoquer les phénomènes qu’il veut étudier et qui ne lui sont donc accessibles qu’indirectement. Les seuls « messagers » qui nous permettent d’étudier les phénomènes astrophysiques à distance sont les ondes émises par les objets de l’étude (étoiles, galaxies…) et les rayons cosmiques.

Lorsque le flux des particules est important (donc pour de faibles énergie < 10¹⁵ eV), il est possible de détecter directement les particules à l’aide d’expériences embarquées sur des satellites terrestres.

Au-delà, les flux de particules étant très faibles, on observe l’effet produit par les rayons cosmiques en pénétrant dans l’atmosphère. De nombreuses théories ont été développées afin de déterminer l’origine de ces phénomènes d’extrême violence. Certaines théories si elles étaient vérifiées verraient l’avènement d’une nouvelle physique.

Les théories sur l’origine des RCUHE (Rayons Cosmiques d’Ultra Haute Energie) peuvent être vues sous forme de deux méthodes distinctes. Une première concerne les phénomènes dits Bottom up, mécanisme dans lequel on prend les particules connues et on les accélère. Les accélérateurs étant des sources astrophysiques, sièges de phénomènes extrêmement violents (radio galaxies, pulsars, supernovae, collision d’objets massifs, trous noirs associés à des phénomènes d’accélération des particules engendrés en particulier par le milieu interstellaire associé aux irrégularités magnétiques aussi appelés mécanisme de Fermi, agissant comme des « raquettes » pour accélérer les particules…). Si les RCUHE se révèlent issus d’un tel mécanisme, nous devrions observer des rayons cosmiques provenant de sources ponctuelles (observation d’anisotropies) de notre univers. De plus, les objets en mesure de générer des  rayons cosmiques de cette énergie, doivent être suffisamment proches en raison de GZK.

Principes de détection utilisés et présentation de l’Observatoire

Les principes de détection

En raison du très faible nombre de RCUHE de l’ordre de quelques-uns par kilomètres carrés et par siècle, et afin d’obtenir la meilleure statistique possible, il a été choisi de réaliser un détecteur de très grande surface dans l’hémisphère Sud, qui jusqu’à présent ne disposait d’aucun détecteur. C’est la commune de Malargüe au pied de la Cordillère des Andes (20000 habitants) dans la province de Mendoza en Argentine qui accueille ce site. En fonction des premiers résultats obtenus un second détecteur d’égale surface doit être construit dans l’hémisphère Nord. Un détecteur placé dans l’hémisphère sud permet en particulier d’observer en direction du centre galactique alors qu’un détecteur placé dans l’hémisphère nord permet une observation vers l’extérieur de la galaxie.

Pour des énergies élevées, les particules en pénétrant dans les hautes couches de l’atmosphère (plusieurs dizaines de kilomètres) créent des gerbes électromagnétiques dont l’impact au niveau du sol comporte environ 100 milliards de particules (photons et électrons essentiellement) réparties sur une dizaine de km² . Au cours de ce processus, ces particules secondaires chargées qui ont été créées tout au long du développement de la gerbe provoquent dans l’atmosphère un phénomène lumineux dû à l’excitation des atomes d’azote de l’atmosphère qui se désexcitent en émettant une lumière de fluorescence dans toutes les directions.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
PARTIE I : LE PROJET DE L’OBSERVATOIRE PIERRE AUGER
1. Introduction
2. Principes de détection utilisés et présentation de l’Observatoire
2.1 Les principes de détection
2.2 Le choix des sites géographiques
3. Description de l’observatoire
PARTIE II: CONCEPTION ET FIABILISATION
4. Description de l’électronique des stations locales
4.1 Description générale de l’électronique d’une cuve
4. 2 Description de la carte unifiée
4.2.1 Les alimentations
4.2.2 Le contrôle de l’alimentation (Le tank power system ou « TPS »)
4.2.3 Le contrôle des paramètres lents ou « Slow Control »
4.2.4 Le marquage en temps ou «Time Tagging »
4.2.5 La configuration matérielle
4. 3 Moyens mis en place pour le développement de la carte unifiée
4.4 Intégration de l’électronique
4.4.1 L’électronique du réseau prototype
4.4.2 L’électronique définitive
5. Evaluation de la fiabilité de l’électronique de AUGER
5.1. Introduction
5.2. Analyse des modes de défaillance
5. 3. Calcul du MTTF pour la carte unifiée
5.3.1. Introduction
5.3.2. Procédure générale de détermination du taux de défaillance d’une carte
5.3.3. Paramètres considérés
5.3.4. Effet des éléments soudés
5.3.5. Taux de défaillance du circuit imprimé
5.3.6. Taux de défaillance des circuits intégrés
5.3.7. Taux de défaillance des condensateurs
5.3.8. Autres taux de défaillance
5.3.9. Evaluation rapide et approximative de quelques taux de défaillance
5.3.10. La Règle d’Arrhenius
5.4. Evaluation statistique des défaillances au cours du temps
5.4.1. Introduction
5.4.2. Courbe caractéristique des probabilités de défaillance
5.4.3. Distribution exponentielle
5.4.4. Loi de Weibull
5.4.5. Conclusion sur le choix de la méthode d’évaluation statistique
5.5. Intervalles de confiance
5.6. Optimisation de l’estimation de fiabilité
5.7. Evaluation du taux de défaillance et de la quantité d’éléments de rechange
5.7.1 Définition du pourcentage d’éléments remplaçables
5.7.2 Taux de défaillance globale et quantité de cartes de rechange nécessaires
5.8. Stratégies de maintenance
5.9. Pour une meilleure fiabilité
5.10. Retour d’expérience
5.11. Conclusion sur la fiabilité
PARTIE III: PRODUCTION ET TEST DES CARTES UNIFIEES
6. Conduite de projet, qualité, suivi de production
6.1. Introduction
6.2. Les principales phases du projet
6.2.1. Le cahier des charges et la phase de conception
6.2.2. L’industrialisation
6.2.3. La planification des tâches
6.3. Plan de gestion de la qualité
6.4. Le marché public
6.4.1 Les étapes de l’appel d’offre restreint
6.4.2 Les documents contractuels
6.4.3 Compte rendu de l’appel d’offre
6.5. Fabrication et gestion de production
6.5.1. Le site de production
6.5.2. Le dossier de fabrication
6.5.3. La fabrication
6.5.4. L’analyse des résultats de la production
6.5.5. Le management de la fabrication au cours du temps
6.6. Conclusion
7. Le banc de test fonctionnel
8. La procédure de déverminage
8.1 Introduction
8.2 Le banc de déverminage
8.2.1. La connexion des cartes
8.2.2. Le boîtier électronique de contrôle du déverminage ou « Powerbox »
8.2.3. Le programme de contrôle du déverminage
8.3 La procédure de déverminage et sa calibration
8.3.1. Analyse de la réponse en température de l’enceinte thermique
8.3.2. Calibration de la procédure de déverminage
8.3.3. Identification des cycles
PARTIE IV : CALIBRATION, ACQUISITION ET INTEGRATION
9. Le trigger, la calibration du détecteur, et le software
9.1 Introduction
9.2 Le logiciel de contrôle des stations locales et d’acquisition
9.3 La sélection des signaux
9.4 La calibration
9.5 Analyse des signaux et détection de problèmes
10. Intégration sur le site d’expérience
CONCLUSION

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *