Adaptation de la configuration de l’électronique en fonction de l’expérience acquise sur les signaux de physique

Télécharger le fichier pdf d’un mémoire de fin d’études

La chromodynamique quantique

L’étude des rayons cosmiques puis des collisions dans les premiers accélérateurs de particules, a permis de découvrir un très grand nombre de hadrons. C’est pour tenter de les classifier et d’interpréter leurs propriétés que Gell-Mann et Zweig proposèrent indépendamment le modèle des quarks en 1964 [99,146]. Ce modèle postule l’existence de trois particules fondamentales (les quarks u, d et s) qui composent l’ensemble des hadrons et forment un triplet de saveur. Il introduit ainsi une symétrie SU(3)F de saveur, dans laquelle les quarks sont dans la représentation fondamentale , et les antiquarks dans la représentation conjuguée ¯. Les hadrons se divisent alors en deux 3 3 catégories :
– les mésons sont formés d’un quark et d’un antiquark. Ils s’organisent selon les représentations irréductibles de l’espace produit : ⊗ ¯ = ⊕ ;
– les baryons sont constitués de trois quarks, et s’organisent selon 3 ⊗ 3 ⊗ 3 = 1 ⊕ 8 ⊕ 8 ⊕ 10. Ce modèle des quarks permettait de retrouver les nombres quantique d’hypercharge et de troisième composante de l’isospin des hadrons alors découverts.
La mise en évidence du Δ++, de spin 32 , pose un problème pour ce modèle dans la mesure où, étant composé de trois quarks u de spins parallèles, il semble ne pas obéir à la statistique de Fermi-Dirac. La solution consiste à postuler l’existence d’un nouveau nombre quantique, appelé couleur, dérivant d’une symétrie de jauge SU(3)c pour laquelle chaque quark est dans la représentation fondamentale. Cette théorie, baptisée chromodynamique quantique, fait également l’hypothèse que seules les particules qui sont dans un état singlet de couleur sont observables (hypothèse de confinement) : les baryons doivent donc être composés de trois quarks de couleurs distinctes, et les mésons d’un quark dans une couleur et d’un antiquark dans l’anticouleur correspondante.
La résolution du problème du Δ++ ne donne qu’une indication sur un nombre minimal de couleurs à faire intervenir. Ce nombre peut cependant être déduit par d’autres méthodes, par exemple :
– ce nombre intervient dans le calcul des anomalies de QED dans le modèle standard. L’annu-lation des anomalies requiert Nc = 3 ;
– en collisionneur e+-e−, ce nombre est directement lié au rapport Re+e− = l’écart des résonances. Là encore, les mesures indiquent Nc = 3. σ(e+e−→had) à σ(e+e−→µ+µ−)
L’introduction dans le lagrangien d’une symétrie de jauge SU(3)c s’accompagne nécessairement de celle des bosons associés à l’interaction forte : ils sont au nombre de 8 (dimension de la représentation adjointe), de masse nulle (pour respecter l’invariance de jauge), de spin 1, et sont appelés gluons. La preuve définitive de leur existence a été donnée par la découverte d’événements à trois jets auprès de PETRA (DESY) en 1979 [17, 140].
Le caractère non abélien de SU(3)c ajoute dans le lagrangien des termes de couplages entre les bosons de la théorie : on obtient des vertex à 3 et à 4 gluons. Une autre propriété, unique à la QCD, apparaît lorsque l’on renormalise la théorie : le calcul de la fonction β, qui contrôle l’évolution de la constante de couplage avec l’énergie, montre que celle-ci diminue quand l’énergie augmente. Ce comportement de liberté asymptotique et de couplage fort à basse énergie est opposé à celui de la QED ou de la théorie électrofaible. Une conséquence est qu’à basse énergie, régime gouverné par une valeur ΛQCD ∼ 300 MeV, la QCD devient une théorie non perturbative.
Il est donc impossible par exemple de calculer perturbativement les interactions internes des consituants d’un proton. On considère ainsi qu’il est composé de trois quarks de valence, ceux du modèle des quarks de Gell-Mann, mais baignant dans une mer de gluons et de quarks.

La théorie électrofaible

Dans les années 40, les études de la radioactivité β et de la désintégration du muon entraînent Fermi à formuler sa théorie des interactions faibles : tous les phénomènes de ce type sont décrits par un couplage à quatre fermions, d’intensité gouvernée par la constante GF ∼ 10−5 GeV−2. La découverte de la violation de parité dans les interactions faibles par Wu en 1956 [145], puis la mesure de l’hélicité du neutrino en 1957 par Goldhaber [102], amenèrent à modifier cette théorie de manière à ce qu’elle ne considère que les fermions gauches.
Un problème majeur de la théorie de Fermi, inhérent au couplage à 4 fermions, est qu’elle n’est pas renormalisable. La solution a consisté à trouver un lagrangien renormalisable, pour lequel la théorie de Fermi est une théorie effective. La théorie électrofaible introduit le groupe de jauge SU (2)L, qui permet de retrouver le comportement des interactions courant chargé lorsqu’il agit sur des doublets formés des fermions gauches : (dL, uL), (e−L, νLe) et leurs équivalents dans les autres générations de fermions. Les champs droits correspondants sont spectateurs de l’interaction faible.
La symétrie U(1)Q de la QED ne commute pas avec le groupe de jauge SU(2)L des interactions faibles ainsi introduit. En revanche, on peut introduire une symétrie U(1)Y , nommée hypercharge faible (y), compatible avec SU(2)L, et telle qu’en se mélangeant avec la troisième composante de SU(2)L (isospin faible t3), on retrouve la charge électrique q = t 3 + y2 .
Le groupe de jauge complet de la théorie électrofaible, élaboré par Weinberg, Salam et Gla-show [100, 134, 143], est ainsi SU(2)L × U(1)Y , ce qui introduit quatre champs vectoriels. Deux sont des champs responsables des interactions courant chargé, et sont nommés bosons W ±. On a vu que le photon est une combinaison linéaire du troisième degré de liberté du champ associé à SU (2)L et du champ associé à U (1). La seconde combinaison donne alors un champ responsable des interactions courant neutre : c’est le boson Z0.
La structure des interactions reposant sur une invariance de jauge non abélienne, la théorie électrofaible prédit des couplages à trois ou quatre bosons, qui ont été observés.

La brisure de symétrie électrofaible

La théorie électrofaible telle qu’elle vient d’être présentée ne permet de retrouver le comporte-ment de l’interaction de Fermi à basse énergie que dans la mesure où les bosons Z0 et W ± sont massifs (courte portée de l’interaction). Or des termes de masse pour ces bosons ne peuvent être ajoutés directement dans le lagrangien sous peine de violer l’invariance de jauge. A contrario, le photon est sans masse puisque les interactions électromagnétiques ont une portée infinie. La symétrie SU(2)L × U(1)Y doit donc être brisée, et U(1)Q doit en être une symétrie résiduelle.
Dans le modèle standard, cette brisure est le résultat du mécanisme de Brout-Englert-Higgs [92, 108]. Celui-ci postule l’existence d’un doublet (sous SU(2)) de champ scalaire complexe, noté φ, dont le potentiel est V (φ†φ) = −m2φ†φ + λ(φ† φ)2, dont les paramètres sont tels que sa valeur moyenne dans le vide ne soit pas nulle (voir la figure 1.1). Cette propriété est à l’origine d’une brisure spontanée de symétrie, dont les conséquences sont multiples.
λ > 0. Ce potentiel (et le lagrangien) sont invariants sous une reparamétrisation de la phase du champ de Higgs, alors que les états de vide ne le sont pas : c’est l’origine de la brisure spontanée de symétrie.
Dans la théorie électrofaible, les interactions entre le champ de Higgs et les bosons vecteurs sont imposées par les invariances de jauge. Du fait de la brisure de symétrie, avec un champ de Higgs dans son état fondamental, et en choisissant la jauge unitaire, l’invariance de jauge laisse place à des termes de masse pour les bosons Z0 et W ±. Le photon en revanche n’interagit pas avec le champ de Higgs et reste de masse nulle : U(1)Q est bien la symétrie résiduelle résultant de la brisure de la symétrie SU(2)L × U(1)Y .
Sur les quatre degrés de liberté d’un doublet de champ scalaire complexe, trois ont ainsi été absorbés pour donner une masse aux bosons électrofaibles. Le degré restant correspond à une excitation du champ de Higgs : c’est le boson de Higgs, qui est par construction un scalaire de masse m.
Enfin, les symétries de la théorie (invariances de jauge et invariance de Lorentz) autorisent la présence dans le lagrangien de couplages trilinéaires entre le champ de Higgs et les champs fermioniques. Dans la mesure où des termes de masse pour les fermions ne peuvent être ajoutés directement dans le Lagrangien sous peine de briser l’invariance de jauge, ce sont ces couplages de Yukawa qui sont à l’origine de la masse des fermions par la brisure de la symétrie électrofaible.

LE BOSON DE HIGGS AU LHC

Les familles de fermions

Six quarks et six leptons constituent l’ensemble des fermions élémentaires connus à ce jour. Compte-tenu de la structure en doublets imposée par SU(2)L, ils s’arrangent selon trois familles ordonnées par masse. La table 1.1 résume un certain nombre de leurs propriétés. Le nombre de familles est une donnée du modèle standard, qui n’a pas de mécanisme pour l’expliquer.
Si du point de vue des interactions faibles ces familles agissent indépendamment, les couplages de Yukawa autorisent des termes mixtes, qui sont effectivement non nuls : les états propres de masse des champs de fermions sont différents de leurs états propres d’interaction. L’existence de deux bases d’états propres induit un mélange entre les familles, et est à l’origine des changements de saveur ou de la violation de la symétrie CP par les interactions faibles. Ces effets sont implémentés dans la théorie par l’action de la matrice CKM (Cabibbo-Kobayashi-Maskawa, [113]) dans le secteur des quarks et de la matrice PMNS (Pontecorvo-Maki-Nakagawa-Sakata, [117, 130]) dans le secteur des leptons.

Contraintes sur l’existence du boson de Higgs

La quête du boson de Higgs au LHC est l’aboutissement de 30 ans de travaux dans le domaine. Aussi le travail des expériences est-il orienté par l’existence de limites de différents types à l’existence du Higgs.
Contraintes théoriques
La masse du boson de Higgs est au premier ordre un paramètre libre du modèle standard. Cependant, si l’on considère que le modèle standard est une bonne théorie effective jusqu’à une échelle Λ bien supérieure à l’échelle de la brisure de symétrie électrofaible, c’est-à-dire en l’absence de nouvelle physique jusqu’à cette échelle, différentes contraintes découlent de la cohérence de la théorie.
Limite d’unitarité. Dans le modèle standard, le boson de Higgs ne permet pas seulement de donner une masse aux champs : il sert aussi à régulariser la section efficace de diffusion de bosons WL polarisés longitudinalement, qui sinon franchit la limite d’unitarité à haute énergie. Cependant, pour être couplé efficacement aux WL et empêcher la violation de l’unitarité, le Higgs ne doit pas être trop lourd. Le calcul de l’amplitude de diffusion donne ainsi une limite supérieure à sa masse : MH . 850 GeV [133].
Limite de trivialité. La renormalisation de la théorie électrofaible fait dépendre le terme d’auto-couplage du Higgs, λ, de l’échelle d’énergie considérée. En particulier un pôle de Landau apparaît, c’est-à-dire une énergie à laquelle λ diverge et la théorie n’est plus perturbative. La valeur du pôle dépendant de la masse du Higgs, on obtient une contrainte supérieure sur la masse en fonction de l’énergie Λ jusqu’à laquelle le modèle standard est considéré valide. La figure 1.6 montre ainsi la limite obtenue en fonction de l’échelle Λ.
Limite de stabilité du vide. La renormalisation de λ fait également apparaître une limite inférieure sur la masse du Higgs. En effet, pour que le potentiel du Higgs ait un minimum, il faut que λ reste positif, ce qui n’est pas garanti quand on prend en compte les ordres supérieurs (principalement la contribution du quark top) avec un Higgs trop léger. La limite de masse ainsi dérivée est également présentée sur la figure 1.6 [110].

Le canal de désintégration H → ZZ → 4`

Phénoménologie du signal

Parmi les canaux de recherche du Higgs au LHC, le mode en quatre leptons joue un rôle particulier : du fait de l’excellente résolution des expériences sur l’énergie et les directions des électrons et des muons, il permet une reconstruction très fine de la masse du boson. Les résolutions typiques attendues à basse masse sont ainsi de 1 GeV.
Le rapport d’embranchement du canal quatre leptons, présenté multiplié par la section efficace de production sur la figure 1.5, est calculé au NLO pour les corrections électrofaibles et QCD, avec prise en compte des diagrammes dominants à deux boucles, par l’outil Prophecy4f [22, 23]. Compte-tenu de son σ × BR, le canal ZZ → 4` est compétitif pour la recherche du Higgs des basses (∼ 120 GeV) jusqu’aux hautes masses (∼ 500 GeV). L’incertitude sur la production du Higgs en quatre leptons est dominée par la connaissance de la section efficace de production du Higgs par fusion de gluons, et est d’environ 15-20 % [88].
Outre le fait qu’un état final avec quatre leptons représente en soi une signature très claire avec assez peu de bruits de fond, la présence de deux bosons Z donne à ce canal une topologie particulière. Les quatre leptons sont associés en deux paires dont les masses invariantes sont dans le pic du Z dès lors que la masse du Higgs dépasse le seuil 2mZ . Lorsque la masse du Higgs est inférieure à 2mZ , il s’avère que l’un des bosons Z est essentiellement sur sa couche de masse, tandis que l’autre est tout à fait hors couche de masse. Cependant à mesure que la masse du Higgs tend vers de très basses valeurs (∼ 120 GeV), ce comportement est moins tranché : même la paire de leptons de plus haute masse invariante a une probabilité non négligeable d’être hors couche de masse. La figure 1.11 illustre ainsi cette répartition des masses entre les paires de leptons pour trois valeurs de masse de Higgs.

Phénoménologie du processus Z + b

Les fonctions de distribution de partons

Comme il a été annoncé au paragraphe 1.2.3, le comportement non perturbatif de la QCD à basse énergie empêche de l’utiliser directement pour décrire la structure d’un proton. Les calculs des interactions proton-proton au LHC reposent en fait essentiellement sur deux ingrédients [32].
Le premier est le modèle des partons, qui a pour origine l’étude des interactions fortement inélastiques (DIS, par exemple e − p). Il postule que dans le cas où l’énergie du hadron incident est grande (plus précisément en se plaçant dans un référentiel où le moment du hadron est infini), une interaction se produit sur un temps trop court pour faire intervenir des phénomènes collectifs. Un seul gluon, ou un seul quark (de valence ou de la mer) est ainsi concerné par l’interaction ; les autres constituants du proton sont spectateurs. Ce modèle suppose également que les impulsions transverses des partons dans le nucléon sont négligeables.
On peut alors paramétriser le comportement d’un proton en termes de fonctions de densité de partons (PDF), qui décrivent phénoménologiquement les probabilités d’émission d’un quark ou d’un gluon emportant une certaine fraction de l’énergie du hadron (notée x). Lorsque l’on tente d’utiliser le modèle des partons à des ordres supérieurs, l’émission de gluons par les partons donne lieu à des divergences logarithmiques ; celles-ci sont renormalisées en faisant intervenir une échelle, dite de factorisation (µF ), caractéristique du processus étudié. L’évolution des PDF en fonction de l’échelle d’énergie est alors logarithmique et se calcule avec les équations DGLAP (Dokshitzer-Gribov-Lipatov-Altarelli-Parisi, [10, 90, 104, 116]).
L’évolution des PDF suivant x n’est en revanche pas calculable analytiquement. Leur déter-mination repose sur des ajustements effectués sur des séries de données qui mettent en jeu les fonctions de structure du proton : principalement DIS sur cible fixe ou en collisionneur e − p, mais aussi des mesures de précision en collisionneurs hadroniques (dijets au Tevatron). De nombreux jeux de PDF sont disponibles, qui diffèrent par la méthode d’ajustement utilisée, le nombre de paramètres en jeu, et les séries de données prises en compte. Les plus courants sont CTEQ [115], MSTW [120], HERA [3], ou encore NNPDF [15]. La gamme d’énergie du LHC permet d’accéder à de nouveaux domaines dans les PDF : grande énergie et petit x, comme le montre la figure 1.16. Le second ingrédient pour le calcul des interactions proton-proton est l’utilisation du théorème de factorisation. Celui-ci montre que le calcul de la section efficace d’un processus pp → X peut se décomposer en l’extraction de partons des protons d’une part (effets « à longue distance »), et en l’interaction dure entre ces partons pour former l’état final d’autre part (effets « à courte distance ») [91] : σpp→X = a,b Z dxadxbfa(xa, µF2 )fb(xb, µF2 ) × σˆab→X (1.1)
où fa et fb sont les PDF des partons a et b, et σˆab→X est la section efficace partonique du processus dur, évaluée à l’énergie xaxb√s.
Processus dur et PDF ne sont cependant pas entièrement décorrélés : en effet pour obtenir un calcul cohérent à un ordre de perturbation donné (par exemple au next to leading-order, NLO), il faut que tous soient évalués à cet ordre, en utilisant la même échelle de renormalisation.

La génération du processus Z + b

Le modèle des partons tel que présenté au paragraphe précédent est tout à fait adapté aux calculs faisant intervenir des quarks légers (u, d, s) ou des gluons. En revanche les quarks c et b, du fait de leur masse de quelques GeV, ne rentrent pas naturellement dans ce modèle. En particulier, leur masse est une échelle supplémentaire dans les processus qui les font intervenir, et les calculs perturbatifs doivent a priori en tenir compte.
La détermination de PDF pour les quarks lourds est pourtant importante dans la mesure où, en plus d’intervenir dans des processus comme Z + b, qui sera étudié dans le chapitre 5, elles influent aussi sur les PDF des quarks légers et des gluons du fait de l’existence de règles de sommes sur les PDF, règles qui transcrivent simplement la conservation de la probabilité et de l’impulsion [14].
Différentes prescriptions existent pour faire intervenir les quarks lourds dans les calculs de section efficace de QCD. Les deux les plus simples ont des approches opposées [118].
Schéma à nombre de saveurs variable : ce schéma étend le modèle des partons aux quarks lourds de la façon suivante. Soit un quark lourd h = c ou b ; il est considéré comme découplé aux échelles d’énergie µ < mh, et intervient dans les équations d’évolution comme un quark léger additionnel (de masse nulle) pour µ > mh [81, 82]. Cette approche, schématisée sur la figure 1.17a, est la plus naturelle et est une bonne approximation à haute énergie (µ mh ). En revanche, du fait de l’approximation mh = 0, elle devient de moins en moins fiable à mesure que l’énergie descend vers le seuil, où en particulier les corrections d’ordre supérieur ne sont pas sous-dominantes. Le générateur Monte Carlo au LO SHERPA [101], qui sera utilisé pour la simulation d’événements dans l’analyse Z + b, utilise ce schéma pour obtenir des quarks b dans l’état initial, avec cependant une renormalisation de x qui prend en compte la masse du quark et permet une meilleure description de la cinématique aux énergies proches du seuil [137].
Schéma à nombre de saveurs fixe : afin de prendre en compte correctement les effets de seuil et de cinématique liés à la masse des quarks lourds, on ne considère de PDF que pour les quarks légers et les gluons. La présence d’un quark lourd dans l’état initial d’un processus dur est alors générée par un processus explicite de gluon splitting. Cette approche, schématisée sur la figure 1.17b, permet de traiter de manière cohérente la masse des quarks tout au long des calculs. En particulier la région du seuil µ ∼ mh est bien décrite. En revanche, cette méthode ne bénéficie pas de la resommation des radiations de gluons intégrée dans les PDF : sa décomposition perturbative contient des termes de la forme αsnlogn (mh/µ) qui empêchent une bonne convergence à haute énergie. Un autre inconvénient pratique de cette approche est qu’elle est d’un ordre supérieur en αs par rapport à l’utilisation d’une PDF, du fait du gluon splitting ; cela complique donc le calcul des corrections d’ordre supérieur. Le schéma à nombre de saveurs fixe est utilisé pour la génération du processus Z + b par le générateur Monte Carlo au LO ALPGEN [119], également employé dans l’analyse Z + b, où une PDF à quatre saveurs est utilisée (le quark c est considéré de masse nulle).

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
1 Considérations théoriques 
1.1 Introduction
1.2 Le modèle standard
1.2.1 Les théories quantiques des champs
1.2.2 L’électrodynamique quantique (QED)
1.2.3 La chromodynamique quantique
1.2.4 La théorie électrofaible
1.2.5 La brisure de symétrie électrofaible
1.2.6 Les familles de fermions
1.3 Le boson de Higgs au LHC
1.3.1 Production du boson de Higgs au LHC
1.3.2 Canaux de recherche du boson de Higgs
1.3.3 Contraintes sur l’existence du boson de Higgs
Contraintes théoriques
Contraintes expérimentales indirectes
Contraintes expérimentales directes
1.4 Le canal de désintégration H → ZZ → 4`
1.4.1 Phénoménologie du signal
1.4.2 Les fonds au Higgs en 4 leptons
Le fond irréductible ZZ
Les fonds réductibles Zb¯b et tt¯
Les fonds réductibles Z+jets
1.5 Phénoménologie du processus Z + b
1.5.1 Les fonctions de distribution de partons
1.5.2 La génération du processus Z + b
1.5.3 Génération d’états finals Z+jets
2 Le LHC et le détecteur ATLAS 
2.1 Le LHC
2.1.1 Introduction
2.1.2 Présentation de l’accélérateur
2.1.3 Détermination de la luminosité
2.1.4 Paramètres de fonctionnement du LHC
2.2 Le détecteur ATLAS : présentation générale
2.3 Le champ magnétique
2.4 Le détecteur interne
2.4.1 Le détecteur à pixels
2.4.2 Le détecteur à micro-pistes de silicium (SCT)
32.4.3 Le détecteur à rayonnement de transition (TRT)
2.4.4 Bilan de matière en amont des calorimètres
2.5 Les calorimètres
2.5.1 Le calorimètre électromagnétique
Description générale
Segmentation du calorimètre
Lecture des signaux du calorimètre
Performances du calorimètre
2.5.2 Le calorimètre hadronique
Le calorimètre à tuiles
Les bouchons du calorimètre hadronique
2.5.3 Le calorimètre vers l’avant
2.6 Le spectromètre à muons
2.6.1 Les chambres de précision
2.6.2 Les chambres de déclenchement
2.7 Les détecteurs vers l’avant
2.8 Le système de déclenchement
2.8.1 Le système de déclenchement de premier niveau (L1 pour Level-1)
2.8.2 Le système de déclenchement de second niveau (L2 pour Level-2)
2.8.3 Le filtre d’événements (EF pour Event Filter)
3 Étude du système de déclenchement à haute énergie 
3.1 Introduction
3.1.1 Sommation des signaux de déclenchement
3.1.2 Traitement numérique des signaux de déclenchement
3.1.3 Logique de déclenchement
3.1.4 Étalonnage électrique du système de déclenchement du calorimètre
3.2 Traitement des signaux saturés
3.2.1 Effets de saturation dans la voie de déclenchement
3.2.2 Identification du croisement de faisceau pour les signaux saturés
3.2.3 Adaptation de la configuration de l’électronique en fonction de l’expérience acquise sur les signaux de physique
3.3 Validation des réglages pour la saturation
3.3.1 Difficultés de la validation de l’algorithme à seuils
3.3.2 Utilisation des données d’étalonnage
Cas d’une Tower Builder Board défectueuse
Recouvrement entre les algorithmes à seuil et à détection de pic
Comportement linéaire des signaux de déclenchement
Saturation de l’échantillon n − 2
Comportement de n − 3
3.3.3 Détermination de l’intervalle de validité de l’algorithme à seuils
3.3.4 Détermination de l’intervalle de validité de l’algorithme à détection de pic . 81
3.3.5 Validation des algorithmes de BCID dans le cas de seuils simplifiés
3.3.6 Prise en compte des conditions réelles de la prise de données 2010
3.3.7 Application aux analyses de recherche de résonances de haute masse
3.4 Perspectives
3.4.1 Le BCID pour la prise de données 2011
3.4.2 Perspectives pour un LHC fonctionnant à son énergie nominale
3.5 Conclusions
4.1 Les électrons
4.1.1 Reconstruction des électrons
Algorithme utilisé
Étalonnage final et détermination des performances
Électrons vers l’avant
Impact des défaillances des détecteurs
4.1.2 Identification des électrons
Cas des données 2010
Cas des données 2011
4.2 Les muons
4.2.1 Reconstruction
4.2.2 Performances
4.3 Les jets
4.3.1 Reconstruction
4.3.2 Performances
4.3.3 Épuration des jets
4.4 Étiquetage des jets de b
4.4.1 L’étiquetage en 2010
4.4.2 L’étiquetage en 2011
4.5 L’énergie transverse manquante
4.6 Prise en compte des effets de l’empilement dans les simulations
5 Mesure de la section efficace Z + b 
5.1 Introduction
5.2 Les processus Z + b
5.3 Données de collision et simulations
5.3.1 La prise de données par ATLAS en 2010
5.3.2 Critères de déclenchement et données utilisées
5.3.3 Simulations Monte Carlo
Génération du signal
Génération des bruits de fond
Normalisation des échantillons
5.4 Reconstruction et sélection des événements
5.4.1 Sélection des leptons
Électrons
Muons
5.4.2 Sélection des événements Z
5.4.3 Sélection des jets
5.4.4 Résultats de la sélection des événements
5.5 Estimation des bruits de fonds et extraction du signal
5.5.1 Description générale de la procédure
5.5.2 Détermination du fond multijets
Canal électron
Canal muon
5.5.3 Choix d’une procédure d’extraction du signal
Principe de l’extraction
Procédure utilisée
Autres procédures envisagées
5.5.4 Vérification des performances de la procédure d’extraction
Tests de cohérence
5.6 Détermination de la section efficace σb
5.6.1 Espace des phases de la mesure
5.6.2 Calcul de la section efficace
5.6.3 Calcul de la section efficace σZ pour la mesure du rapport σb/σZ
5.6.4 Détermination des incertitudes systématiques
Étiquetage des jets
Performances des jets
Performances des leptons
Normalisation des bruits de fond
Modélisation du signal par les simulations
Résumé des incertitudes systématiques
5.7 Résultats et comparaison avec la théorie
5.7.1 Prédictions théoriques
5.7.2 Résultats et discussion
5.8 Conclusions
6 Recherche du Higgs en 4 leptons avec 4,8 fb−1 de données 
6.1 Introduction
6.2 La prise de données par ATLAS en 2011
6.3 Validation d’une nouvelle méthode de reconstruction des électrons
6.3.1 Reconstruction des électrons par l’algorithme dit GSF
6.3.2 Performances de l’algorithme GSF
6.3.3 Comparaison des algorithmes de reconstruction sur des simulations
Paramètres d’impact
Variables cinématiques
Variables combinées
6.3.4 Comparaison des algorithmes de reconstruction avec les données de 2011
Sélection des événements
Simulations utilisées
Résultats
6.3.5 Conclusions sur les performances de l’algorithme GSF pour les électrons de
désintégration de hadrons lourds
6.4 Recherche du Higgs en 4 leptons avec 4,8 fb−1 de données
6.4.1 Données de collisions et simulations
Données et critères de déclenchement utilisés
Simulations Monte Carlo
6.4.2 Sélection des événements
Sélection des leptons
Reconstruction d’un candidat Higgs
Réduction des bruits de fond
6.4.3 Estimation des bruits de fond
Le bruit de fond multijets
Le bruit de fond tt¯
Le bruit de fond Z + µµ
Le bruit de fond Z + ee
Distribution de m4` pour les bruits de fond
6.4.4 Résultats de la sélection des événements
Efficacité de la sélection
Résultats de la sélection sur les données
6.4.5 Incertitudes systématiques
6.4.6 Limites d’exclusion du boson de Higgs
6.4.7 Conclusions et intégration du résultat dans la recherche du boson de Higgs au LHC
6.5 Optimisations pour la recherche du Higgs à basse masse
6.5.1 Amélioration de la réjection des jets légers
6.5.2 Procédure d’évaluation des gains
6.5.3 Optimisation des sélections cinématiques
6.6 Nouvelle analyse des données de 2011
6.6.1 Simulations utilisées
6.6.2 Modifications de la sélection des événements
Sélection des leptons
Reconstruction d’un candidat Higgs
Réduction des bruits de fond
6.6.3 Résultats préliminaires de l’application de la nouvelle sélection
6.7 Conclusion
Conclusion générale
Bibliographie 

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *