Modèle Standard
Le Modèle Standard de la physique des particules est le nom donné au modèle théorique décrivant les constituants élémentaires de la matière et leurs interactions. Ce modèle repose sur la théorie quantique des champs, dans laquelle l’espace est rempli de champs, dont les excitations sont les particules élémentaires. La naissance du Modèle Standard remonte aux propositions de Weinberg [1], Salam [2] et Glashow [3] d’un modèle des interactions électrofaibles. La théorie quantique des champs permet de décrire comment un système de particules évolue au cours du temps et quelles sont les probabilités d’observer un état final donné à partir d’un ensemble de particules de départ. On peut répondre à ces questions en utilisant le formalisme de la matrice S qui permet de relier un vecteur d’état entrant à un vecteur d’état sortant. S |ini = |outi (1.1) Les éléments de cette matrice peuvent être retrouvés à partir de la formulation lagrangienne du Modèle Standard. Partant du lagrangien, on peut déduire les règles de Feynman permettant de calculer les amplitudes de transitions dans le formalisme des intégrales de chemins. Ces amplitudes permettent ensuite de calculer des sections efficaces. L’écriture du lagrangien du Modèle Standard fait appel à un très grand nombre de symétries, conférant une certaine élégance au modèle. Ce chapitre revient sur la notion de symétrie en physique des particules et inventorie les principales symétries du Modèle Standard. Le contenu en champs est ensuite présenté avant de revenir sur les succès expérimentaux et théoriques de ce modèle.
Paramètres libres du Modèle Standard
Au total, il y a 19 paramètres libres dans le Modèle Standard, sous l’hypothèse de neutrinos non-massifs. Ces paramètres doivent être mesurés expérimentalement. Le décompte des paramètres libres donne :
— 9 masses de fermions ;
— 3 couplages de jauge ;
— 3 angles de mélange de la matrice CKM, plus 1 phase complexe ;
— la vev et la masse du Higgs ;
— θQCD.
L’interaction forte possède quelques particularités intéressantes, liées à l’évolution du couplage de jauge g3, la liberté asymptotique et le confinement. Au plus l’énergie est grande, au plus le couplage de QCD est faible, c’est la liberté asymptotique. Au contraire, à basse énergie, l’interaction forte est tellement intense que les particules chargées ne peuvent se propager seules, leurs propagation s’accompagne de la création de paires quark-antiquarks. Seuls des états liés de QCD, sans charge de couleur peuvent se propager dans le vide. Enfin, la vev v du Higgs se déduit de la masse mesurée du W± est vaut ‘ 246 GeV. La masse du Higgs a été mesurée par les expériences ATLAS et CMS et vaut approximativement 125 GeV [10, 11].
Succès expérimentaux et théoriques
Le Modèle Standard s’illustre en particulier auprès des collisionneurs. La théorie des champs fournit l’outillage nécessaire à la prédiction des sections efficaces de production et des taux d’embranchements des différents états finaux prédits par le Modèle Standard. Il est difficile de dissocier les succès expérimentaux et théoriques du Modèle Standard. Le Modèle Standard est le résultat d’une véritable coopération entre théoriciens et expérimentateurs. L’histoire de sa construction est une succession de prédictions, découvertes et adaptations du modèle, résultant aujourd’hui en un modèle de la physique des particules en parfait accord avec les expériences. Les succès expérimentaux se sont succédés depuis plusieurs décennies, en particulier dans le secteur électrofaible. Tout d’abord avec SppS, où les collaborations UA1 et UA2 ont découvert les bosons W± et Z0 en 1983 [12–14]. Puis de 1989 à 2000, à LEP, où les expériences ALEPH, OPAL, L3 et DELPHI ont pu mesurer très précisément les masses des bosons Z0 et W±. La forme de la résonance du Z0 est un très grand succès théorique, la figure 1.1 montre la prédiction théorique de la forme de la résonance, ainsi que les mesures expérimentales par différentes expériences [15]. Cette prédiction est aussi un succès pour la théorie des champs, en effet, sans tenir compte des effets d’ordres supérieurs, il est impossible d’obtenir une prédiction correcte de la forme de la résonance du Z0. La découverte du Z0 est aussi un succès pour l’argument d’unitarité. Dans le formalisme de la matrice S, il est nécessaire que celle-ci soit unitaire. Cependant, sans les vertex eνeW et ZWW, la matrice S pour la production e+e− → W+W− n’est pas unitaire. La figure 1.2 montre l’évolution de la section efficace en fonction de l’énergie au centre de masse [16]. Sans contribution du neutrino électronique ou du boson Z, la section efficace ee → W+W− diverge quand l’énergie au centre de masse augmente. L’argument d’unitarité intervient aussi dans la prédiction de l’existence du boson de Higgs. En plus d’être un résidu du mécanisme BEH (pour Brout-Englert-Higgs), le boson de Higgs unitarise la diffusion WW. Un boson de Higgs a été découvert en 2012 au LHC par les expériences ATLAS et CMS, dans les canaux h → γγ et h → ZZ∗ . La figure 1.3 montre la force du signal observé au LHC par ATLAS, dans l’hypothèse d’un boson de Higgs de 125.5 GeV [17]. On y voit que la force du signal observée dans les différents canaux de désintégration du boson de Higgs est compatible avec les prédictions du Modèle Standard. Avec 25 fb−1 de données accumulées, le LHC a permis de mesurer précisément une grande variété de sections efficaces prédites par le Modèle Standard à des échelles auxquelles il n’avait encore jamais été testé. La figure 1.4 donne un résumé des mesures de sections efficaces effectuées par ATLAS [18]. On y voit que pour une très grande variété de processus du Modèle Standard, les valeurs mesurées par ATLAS sont en excellent accord avec les prédictions théoriques
Le Grand Collisionneur de Hadrons
Le LHC (pour Large Hadron Collider) [1] est un collisionneur circulaire de 27 km de circonférence construit et exploité par le CERN (Laboratoire Européen de Physique des Particules) et situé à Genève. Cet accélérateur poursuit un double objectif : permettre des mesures de précision du Modèle Standard et la recherche de physique au delà du Modèle Standard. Le LHC a été conçu principalement pour fournir des collisions p − p de haute énergie et une grande luminosité instantanée. Dans les conditions de fonctionnement nominales, le LHC fournira des collisions de √s = 14 TeV dans le référentiel du centre de masse des protons et une luminosité instantanée de 1034 cm−2s−1 . Le LHC occupe le même tunnel que LEP [2] et bénéficie d’une chaîne d’accélération basée sur les accélérateurs précédents (voir figure 4.1). Les protons sont d’abord accélérés par l’accélérateur linéaire LINAC2 (p = 50 MeV), le BOOSTER (p = 1.4 GeV), puis le PS (p = 50 GeV) suivi du SPS. À la sortie du SPS les protons ont une impulsion p = 450 GeV et sont injectés dans LHC qui achèvera de les accélérer pour atteindre p = 7000 GeV. Les protons sont injectés alternativement dans les sens horaires et anti-horaires dans les deux tubes du LHC afin de former deux faisceaux de protons circulants dans des directions opposées. Ces faisceaux sont constitués de paquets contenant approximativement 1011 protons. Dans sa configuration nominale le LHC contient 2808 de ces paquets, espacés en temps de 25 ns. Le système d’accélération de LHC repose sur 16 cavités radiofréquence accélératrices distribuées le long de l’accélérateur. Le reste de l’accélérateur est constitué de 1232 dipôles dont le rôle est de courber les faisceaux grâce à des champs magnétiques de 8.33 T. Tout au long de l’accélérateur on trouve aussi des quadrupoles et sextupoles dédiés à différentes tâches : injection, éjection, focalisation, nettoyage des faisceaux, etc. . . Pour obtenir et maintenir des champs magnétiques aussi intenses, le LHC utilise une technologie d’aimants supraconducteurs basés sur un alliage niobium-titane (NbTi) maintenu à une température de 1.9 K. Les dipôles sont contenus dans un cryostat au sein duquel circule de l’hélium liquide, permettant ainsi de maintenir les aimants dans un état supraconducteur.
Étiqueteurs multivariés
L’ensemble des ces algorithmes, bien que poursuivant les mêmes objectifs, n’utilise pas les mêmes méthodes de reconstruction. Les trois principales méthodes ne sont pas complètement corrélées, il existe donc des cas où certaines techniques sont plus efficaces que d’autres. Ces corrélations étant différentes dans le signal et le bruit de fond on peut les exploiter en combinant ces différents algorithmes. Dans le cas des LLR, la combinaison est simple, il suffit d’additionner les poids discriminant pour obtenir un nouveau discriminant, dans l’hypothèse d’une décorrélation totale des techniques. Si des corrélations sont présentes, celles de premier ordre peuvent être exploitées par l’analyse en composante principale, où l’on diagonalise la matrice de corrélation. Les corrélations d’ordres supérieurs doivent être exploitées par d’autres techniques. Une première solution serait d’étendre l’espace des paramètres utilisés pour construire les LLR. Bien qu’optimale, cette solution est limitée par notre capacité à échantillonner un espace N-dimensionnel. Une seconde solution adoptée est l’approximation de ces fonctions de vraisemblance par analyse multivariée (MVA pour MultiVariate Analysis). Plus particulièrement, on s’intéressera ici à l’“apprentissage machine”, une branche de l’intelligence artificielle qui étudie les automates capables d’inférer une relation entre un jeu de caractéristiques d’un objet et une catégorie. Si cette catégorie est continue, on parle de régression, s’il existe un nombre fini de catégories (par exemple, signal et fond) on parle alors de classification. C’est ce dernier aspect qui nous intéresse pour l’étiquetage de saveur et on utilisera aussi le terme de “classes” pour désigner les “catégories” d’objets. Avant de pouvoir utiliser ces automates, il est nécessaire de passer par une phase d’apprentissage, aussi appelée phase d’entraînement, une étape durant laquelle on fournit à l’automate une collection d’événements dont on connaît la vraie classe. Durant cette phase l’automate apprend à identifier les différentes classes, on pourra ensuite l’utiliser pour déterminer la classe d’objets inconnus.
Réseaux de neurones artificiels Parmi les algorithmes de classification les plus populaires on trouve les réseaux de neurones (ANN, pour Artificial Neural Networks) [12]. Un ANN consiste en un ensemble de neurones formels interconnectés pour former un réseau. Les neurones formels sont une idéalisation des cellules neuronales, des systèmes recevant de multiples signaux et fournissant un seul signal en sortie. Les ANN approximent la fonction de vraisemblance N-dimensionelle en combinant et en pondérant des fonctions de décision, en général des sigmoïdes. Le théorème d’approximation universel [13] garanti qu’avec un nombre de neurones N fini, on peut approximer n’importe quelle fonction avec une précision arbitraire , en l’occurrence la fonction de vraisemblance. La couche de neurones d’entrée est séparée de la couche de sortie par une couche intermédiaire (cachée).
|
Table des matières
Modèle Standard
1 Modèle Standard
1 Symétries
2 Contenu en champs
3 Lagrangien du Modèle Standard
4 Mécanisme de Brout-Englert-Higgs
5 Structure de saveur
6 Paramètres libres du Modèle Standard
7 Succès expérimentaux et théoriques
8 Au delà du Modèle Standard
8.1 Unification de jauge
8.2 Potentiel scalaire
8.3 Instabilité de la masse du Higgs
8.4 Cosmologie
8.5 Gravitation
9 Références
Supersymétrie
2 Supersymétrie
1 MSSM
1.1 Brisure de la supersymétrie
1.2 Mécanisme de Higgs
1.3 États propres de masse
1.4 MSSM phénoménologique
2 Origines de la brisure de SUSY
2.1 mSUGRA
2.2 AMSB
2.3 GMSB
3 Avantages de la SUSY
3.1 Unification
3.2 Candidat matière sombre
3.3 Stabilisation de la masse du Higgs
3.4 Brisure radiative de la symétrie électrofaible
4 Références
3 SuSpect
1 Introduction
1.1 Ingrédients de base
1.2 Extrapolation du Modèle Standard
1.3 Appliquer la brisure SUSY
1.4 Brisure électrofaible
1.5 Spectre de masse
1.6 La grande boucle
2 SuSpect3
2.1 Structure SLHA
2.2 Objets principaux
3 Validations
3.1 SuSpect2 vs. SuSpect3
3.2 Invariants du groupe de renormalisation
4 Conclusion
5 Références
Recherche de signaux supersymétrique
4 LHC et le détecteur ATLAS
1 Le Grand Collisionneur de Hadrons
2 ATLAS
2.1 Trajectographe
2.2 Système calorimétrique
2.3 Spectromètre à muons
2.4 Système de déclenchement
3 Références
5 Étiquetage de saveur
1 Jets et saveurs lourdes
1.1 Quarks, gluons et jets
1.2 Quarks lourds
2 Étiquetage de saveur
2.1 Étiqueteurs basés sur le paramètre d’impact
2.2 Étiqueteurs basés sur le vertex secondaire
2.3 Étiqueteurs basés sur la reconstruction topologique
3 Étiqueteurs multivariés
3.1 Réseaux de neurones artificiels
3.2 Arbres de décision
3.3 JetFitterCOMBNN
4 MV1
4.1 Configuration et entraînement
4.2 Performance
5 MV1c
5.1 Configuration et entraînement
5.2 Performance
6 MV3
6.1 Configuration et entraînement
6.2 Performance
7 MV2
7.1 Performance
8 Performances en fonction de pT
9 Performances en fonction de pT pour une efficacité moyennée
10 Performances en fonction de |η|
11 Performances en fonction de nP V pour une efficacité moyennée
12 Performances d’étiquetage dans les données
12.1 Étalonnage de b
12.2 Étalonnage de l
12.3 Étalonnage de c
13 Étiquetage continu
14 Conclusions et perspectives
15 Références
6 Recherche de la SUSY au LHC
1 Recherche dans le secteur QCD
2 Recherche dans le secteur électrofaible
3 Boson de Higgs dans les cascades de désintégration SUSY
4 Simulation des bruits de fonds physiques
5 Sélection des événements
5.1 Données
5.2 Définition des objets
5.3 Régions de signal
6 Mesure du bruit du fond Modèle Standard
6.1 Régions de contrôle et de validation
6.2 Estimation du bruit de fond QCD
6.3 Estimation des fonds physiques du “Modèle Standard”
6.4 Traitement des incertitudes systématiques
6.5 Validation du modèle
6.6 Interprétation dans les modèles simplifiés
6.7 Interprétation dans le pMSSM
6.8 Conclusion
7 Références
Conclusion
8 Références
Télécharger le rapport complet