Nœud technologique et dimension critique

Télécharger le fichier pdf d’un mémoire de fin d’études

Les procédés

Le principe de fabrication des composants électroniques consiste à créer sur une plaque de semiconducteur les zones dopées, les zones d’oxyde et les zones de contact nécessaires. La surface d’un composant élémentaire est très inférieure à celle de la plaque, appelée wafer, ce qui permet de fabriquer de nombreux composants comme les transistors. L’industrie fabrique en pratique des ensembles de composants interconnectés : les circuits. Chaque circuit peut comporter des millions de composants.
La première étape de fabrication consiste à déposer une couche uniforme de matériau. Puis les différentes régions sont structurées par le patterning qui regroupe la photolitho-graphie et l’étape de gravure.
A la suite de la gravure, une étape de remplissage – métallique le plus souvent– est réalisée. Pour certains niveaux, au lieu de la gravure, la photolithographie est suivie par une étape de dopage des zones qui ne sont plus recouvertes de résine.
Afin de corriger les défauts de topographie éventuels et enlever le surplus de matière, une étape de polissage mécanico-chimique – la CMP – est réalisée, avant que le wafer subisse un nettoyage – le Wet Clean.

Nœud technologique et dimension critique

La dimension critique, abrégée CD pour critical dimension, est la taille du plus petit motif imprimé par le procédé de patterning pour un niveau donné.
Un article publié en 2013 [4] propose une analyse sur la correspondance entre les nœuds technologiques et les dimensions caractéristiques d’un circuit. L’auteur explique que, depuis la technologie 0.35 micron qui était réellement la dimension de la largeur de grille d’un transistor, la valeur du nœud technologique n’est plus directement liée à cette grandeur. A l’époque de cette technologie développée dans les années 1990, le CD de la grille était directement lié à la performance d’un circuit via le temps de commutation d’un transistor.
Afin de suivre la loi de Moore, les industriels ont défini la valeur du nœud d’une technologie en réduisant de 30% celle de la technologie précédente. De fait, une réduction de 30% pour chaque direction correspond à une réduction de 50% de la taille occupée par un transistor, ce qui est en accord avec le critère de doublement de la densité de transistors.
Depuis le début des années 2000, des facteurs d’amélioration ont été développés comme le changement de la nature des matériaux de la grille ou des isolants, ou bien l’introduction de contraintes dans le canal.
Ces innovations ont permis de produire des circuits plus performants en complément de la réduction du CD de la grille. Mais la valeur du nœud technologique a continué de chuter linéairement alors que la réduction du CD de la grille s’amortissait. Ainsi depuis 2011, GlobalFoundries annonce une dimension de grille supérieure au nœud technologique comme le montre la figure 1.2.
Cependant, un nœud technologique peut aussi être défini comme étant la moitié du pas – le half pitch – de la structure la plus dense du circuit. Pour la technologie CMOS 14 nm conçue par STMicroelectronics, la période des structures les plus denses est de 64 nm et le half pitch est donc de 32 nm.
Cette valeur de période du métal 1 est similaire à celle de la technologie FinFET 14 nm produite par la firme américaine Intel qui conçoit son premier niveau de métal à 62 nm de période comme l’annonce une publication de l’IMEC en 2012 [5].
Ainsi, pour la technologie 14 nm conçue chez STMicroelectronics, les structures les plus denses sont les premiers niveaux de métal. La dimension critique du métal après les étapes de lithographie, de gravure et de remplissage doit être de 32 nm. Le défi n’est pas d’obtenir un motif d’une dimension de 32 nm car la gravure permet de réduire la taille d’une ligne imprimée par la lithographie.
En revanche, nous verrons que c’est bien la période de 64 nm qui va poser problème en raison de la limite de résolution de l’équipement d’exposition émanant du phénomène de diffraction optique.

La photolithographie

Les étapes du procédé

La photolithographie est composée de plusieurs étapes successives. Très souvent, une couche antireflet – BARC pour Bottom Anti-Reflective Coating – ainsi qu’un matériau carboné planarisant – OPL pour Optical Planarization Layer – sont déposés sur le diélectrique à graver. Puis une résine photosensible, composée typiquement de polymères organiques, est disposée le plus uniformément possible.
L’exposition est réalisée via un système de projection optique qui va insoler la résine en projetant l’image d’un réticule.
Cette image subit un facteur de réduction en fonction des lentilles utilisées dans la projection. Elle représente le champ d’exposition sur la plaque. Ce processus est répété sur la plaque entière en combinant un déplacement rapide de la plaque avec un balayage du champ d’exposition grâce à un obturateur comme l’illustre la figure 1.3.
Une fois la résine exposée, elle subit un recuit dans le but de figer les réactions chimiques au sein du matériau. Puis la résine est développée, c’est-à-dire que l’on retire une partie du matériau afin de faire apparaître les motifs voulus. Pour une résine à développement positif, les zones exposées sont solubles dans la solution qui fait office de développeur. Pour une résine à développement négatif, ce sont les zones non exposées qui sont retirées pendant l’étape de développement. Ensuite, une étape de mesure post-développement est effectuée afin de vérifier que les dimensions des motifs imprimés dans la résine respectent les spécifications. De plus, une mesure de l’erreur d’alignement doit être réalisée car un décalage trop important entre deux niveaux peut induire une non-fonctionnalité du circuit produit.
Si cette étape de métrologie met en évidence une dimension des motifs ou une erreur d’alignement en dehors de la zone de tolérance, il est possible de recommencer l’étape de lithographie, c’est-à-dire de retirer l’ensemble de la résine et de refaire le dépôt et l’exposition : c’est ce que l’on appelle un rework.

L’overlay

La qualité de l’alignement d’un niveau sur un autre s’avère un paramètre majeur pour la fonctionnalité d’un circuit [6].
Si l’on considère l’exemple de la lithographie du niveau contact illustré par la figure 1.5, on comprend qu’un désalignement entre la grille d’un transistor et son contact va provoquer un dysfonctionnement du transistor dû à cette connexion défectueuse. Cependant, une certaine tolérance est possible dans l’alignement car le transistor peut fonctionner tant que la surface de recouvrement entre la grille et le contact est suffisante. Cette notion de recouvrement explique pourquoi le terme overlay – verbe signifiant en anglais recouvrir – est utilisé à sa forme substantive pour définir le désalignement entre deux niveaux de lithographie.
Les erreurs d’alignement, génératrices d’overlay, peuvent être considérées hiérarchique-ment. Les erreurs majeures sont dues à la précision de la platine de positionnement du système de projection. S’ajoutent les erreurs dues à la conception du réticule.
Pour modéliser l’overlay, il est nécessaire de séparer les erreurs dues aux variations d’overlay dans le champ d’exposition, que l’on nomme les erreurs intra-champ, et celles qui varient d’un champ à l’autre et qui sont donc nommées les erreurs inter-champs.
Ces erreurs inter-champs sont définies en X et en Y par les équations 1.1 et 1.2.
ΔX = Tx + MxX − RxY + ex (1.1)
ΔY = Ty + MyY + RyX + ey (1.2)
Les paramètres Tx et Ty représentent les erreurs de translation et indiquent un décalage global du champ imprimé par rapport au champ du substrat. Les facteurs Mx et My sont des erreurs de grandissement. Elles sont exprimées en parties par million (ppm). Rx et Ry sont les facteurs de rotation en X et en Y. Ce sont des sinus d’angle très faibles qui sont donc souvent exprimés en radians.
Les termes ex et ey sont les erreurs résiduelles qui ne se conforment pas au modèle. Elles émanent de la précision de la platine de positionnement mais aussi d’effets non linéaires comme le changement de température du wafer durant l’exposition ou encore des distorsions plastiques non linéaires du wafer.
Il est possible d’exprimer les erreurs de grandissement et de rotation pour les deux directions X et Y en fonction de grandissements et rotations symétriques et asymétriques via les équations 1.3 et 1.4.
Mx = Ms + Ma et My = Ms − Ma (1.3)
Rx = Rs + Ra et Ry = Rs − Ra (1.4)
Les erreurs intra-champ sont représentées dans la figure 1.7.
Ces erreurs intra-champ pour un système lithographique d’exposition à balayage sont modélisées par les équations 1.5 et 1.6.
δX = mxX − rxY + ex (1.5)
δY = myY + ryX + ey (1.6)
Les paramètres mx et my sont les erreurs de grandissement en X et Y et sont exprimés en ppm. Les coefficients rx et ry représentent la rotation du réticule en X et Y en radians. Les termes ex et ey sont les erreurs résiduelles.
De la même façon que pour les paramètres inter-champs, on peut introduire, pour l’intra-champ, des paramètres de grandissement et rotation symétriques et asymétriques : ms, ma, rs et ra. Les paramètres mx, my, rx et ry s’écrivent alors selon les équations 1.7 et 1.8.
mx = ms + ma et my = ms − ma (1.7)
rx = rs + ra et ry = rs − ra (1.8)
Pour chaque point du wafer, l’erreur d’overlay est la somme des erreurs inter-champs et intra-champ.
Afin de contrôler l’overlay, il est important d’identifier les erreurs et donc de déterminer les différents coefficients. Ils peuvent être extraits des données d’overlay mesurées sur wafer qui sont modélisées. Les coefficients sont calculés en minimisant la somme quadratique des erreurs résiduelles pour tous les points mesurés sur wafer.

La résolution d’une structure périodique

Pour améliorer les performances d’un transistor et notamment réduire son temps de commutation pour les circuits logiques, on cherche à diminuer la dimension critique de la grille. Ainsi, en rétrécissant la largeur de grille, on densifie la structure des plots qui réalisent le contact entre la grille, mais aussi la zone active – source et drain – et les premiers niveaux métalliques.
Cette densification des contacts implique de créer un réseau métallique lui aussi très dense pour relier les transistors. Certaines cellules des circuits nécessitent alors de concevoir des réseaux de lignes de métal périodiques. La période minimale requise pour ces réseaux de lignes est de 64 nm, ce qui explique la valeur de 32 nm pour le half pitch de la technologie 14 nm.
A la différence de la résolution d’un motif « isolé », la période minimale est limitée par le phénomène de diffraction. On ne peut pas améliorer cette résolution – purement optique – en optimisant le procédé.
La diffraction par un réseau en transmission est régie par l’équation 1.12, m étant un entier relatif [10]. n sin θ − ni  sin θi = m λ (1.12)
Au moins deux ordres de diffraction doivent être collectés pour obtenir une image du réseau au niveau du wafer. Si l’on se place dans le cas d’une incidence oblique avec θi non nul et considéré comme positif comme cela est illustré dans la figure 1.9, on obtient une image du réseau si au moins les ordres 0 et -1 sont collectés. Afin d’obtenir une incidence oblique, il faut choisir une source hors-axe, par exemple une source annulaire.
Au lieu de considérer l’angle θi, il est commun de définir la source lumineuse par son facteur de cohérence σ donné par l’équation 1.13 [11]. σ = ni  sin θi (1.13)
L’ouverture numérique NA vaut n sin θ0, θ0 étant l’angle délimité par la pupille du système optique de projection, comme cela est illustré dans la figure 1.10.
La condition pour collecter les ordres 0 et -1 est exprimée par l’équation 1.14. −n sin θ−1 < NA (1.14)
On obtient alors la condition de l’équation 1.15. λ< (σ + 1)NA(1.15)
Finalement, la période minimale pmin d’un réseau du réticule qui pourra être imprimé dans le cas d’une source hors axe à coefficient de cohérence σ est donnée par l’équation 1.16. λpmin = (1.16) (σ + 1)NA.
La limite de résolution optique
Afin de repousser la limite de résolution, il a été nécessaire de jouer sur tous les leviers disponibles : réduire la longueur d’onde et le coefficient k1, augmenter l’ouverture numérique et le coefficient de cohérence σ. La figure 1.11 illustre l’évolution du CD de la grille et de la période minimale du métal 1 depuis 1985.
La longueur d’onde a été réduite jusqu’à atteindre l’ultraviolet et 193 nm pour la technologie 0.12 microns. Afin de continuer à diminuer le CD de la grille et la période du métal 1, le scanner à immersion a été introduit à partir du nœud 40 nm, ce qui a permis d’atteindre une ouverture numérique de 1.35.
Parallèlement, le facteur k1 a été réduit grâce à des progrès notamment liés aux matériaux ; sa valeur est actuellement comprise entre 0.2 et 0.4.
Pour la technologie 14 nm, grâce à toutes ces optimisations de la lithographie mais aussi de la gravure, le CD de la grille est imprimé à une vingtaine de nanomètres, comme cela est requis. Pour relier les transistors, il faut alors que la période des lignes de métal puisse atteindre la valeur minimale de 64 nm.
Or, en optimisant le coefficient σ et en utilisant le scanner à immersion à 193 nm de longueur d’onde, la période minimale que l’on peut imprimer est d’environ à 80 nm. La période du métal 1 visée est donc en deçà de la limite de résolution d’un tel scanner. Cette période limite de 80 nm est identifiée par l’étoile rouge de la figure 1.11.
LES SOLUTIONS INDUSTRIELLES POUR REPOUSSER LA LIMITE DE RÉSOLUTION
Les solutions industrielles pour repousser la limite de résolution
La lithographie Extrême UV
Pour atteindre une période de 64 nm pour le métal 1, deux principales solutions industrielles ont été développées. En premier lieu, des scanners exposant à la longueur d’onde de 13.5 nm, et appelés scanners Extreme UV, commencent à être utilisés dans les fonderies.
Dès 2013, le rapport de l’ITRS indique que ces scanners sont capables d’imprimer des réseaux de lignes à une période inférieure à 40 nm. Cependant, la faible puissance de la source de ces premières générations de scanners Extrême UV a été un frein à leur adoption par l’industrie en raison de la faible vitesse d’exposition d’un wafer.
En effet, d’après des données de 2013 [12], moins de 50 wafers par heure peuvent être exposés avec cette génération de scanners Extrême UV, alors qu’un scanner 193 nm à immersion peut exposer plus de 250 wafers par heure. De plus, des problèmes de bruit, ainsi que des réponses de la résine de qualité insuffisante ont été répertoriés.
Cependant, depuis 2014, des nouvelles générations de scanners fabriqués par ASML permettent une exposition bien plus rapide grâce à l’augmentation de la puissance de la source Extrême UV [13]. Cependant, la majorité des scanners de l’industrie de la microélectronique restent les scanners 193 nm à immmersion en raison de l’investissement que nécessite la mise en place de la lithographie Extrême UV.
Le double patterning
En attendant la généralisation de la lithographie Extrême UV, l’industrie a développé une méthode astucieuse permettant de diviser l’impression d’un réseau de lignes en deux étapes.
Cette méthode est appelée lithographie à double patterning car elle définit en deux étapes les motifs à graver. Elle permet de doubler la densité d’un motif périodique avec la même dimension critique.
De fait, si l’on vise à imprimer un réseau de lignes de 32 nm avec un pas de 64 nm mais que l’on est limité à un pas de 80 nm en raison de la résolution optique, il est possible de définir par lithographie un premier réseau avec un pas de 128 nm puis un second réseau identique décalé de 64 nm sur le même niveau. La figure 1.12 illustre les étapes nécessaires à cette réalisation.
La structure de lignes périodiques étudiée est un réseau de période 64 nm qui sera remplie par un matériau métallique après la gravure finale du niveau. L’étape de patterning, nommée LIN1 à STMicroelectronics pour les technologies précédentes, est divisée en deux étapes : LI1A et LI1B.
Dans la figure 1.12, l’empilement est illustré jusqu’à la couche d’arrêt en SiCN dont le rôle est de limiter la gravure finale au diélectrique à faible permittivité SiOC. Les couches inférieures correspondant aux niveaux de contact, de grille et de zone active ne sont pas représentées.
Afin de définir les lignes qui seront gravées dans le SiOC, un masque dur est déposé. Il est constitué de trois couches de matériaux : sur le SiOC est déposé d’abord de l’oxyde, puis du TiN et de nouveau de l’oxyde.
Pour que l’on puisse structurer par gravure plasma les lignes dans ce masque dur, un empilement d’OPL, de BARC et de résine est déposé. Cet empilement a pour rôle de permettre d’imprimer le réseau de lignes dans la résine photosensible par lithographie. La couche de carbone amorphe appelée OPL sert à éviter les problèmes de topographie qui pourraient perturber le procédé de lithographie. L’ajout d’une couche antireflet – le BARC – a pour but d’éviter les réflexions multiples dans l’empilement durant l’insolation qui parasiteraient, par interférence, l’exposition de la résine. Tous ces dépôts réalisés, la première lithographie – LI1A – est effectuée. L’insolation de la résine – qui a été choisie négative – puis son développement permettent d’obtenir un premier réseau de tranchées à 128 nm de période.
Ce réseau de tranchées est transféré dans l’oxyde du masque dur par l’étape de gravure LI1A suivie par un retrait de l’ensemble de l’empilement de lithographie.
Puis, un nouvel empilement d’OPL, de BARC et de résine est déposé. La seconde lithographie – LI1B – permet d’imprimer de nouveau un réseau à 128 nm de période. Pour obtenir le réseau final, ce nouveau réseau doit être décalé de 64 nm par rapport au premier réseau gravé. Il faut donc que la superposition des deux réticules LI1A et LI1B donne un réseau entrelacé à 64 nm. Néanmoins, pour garder la périodicité de la structure, il est indispensable d’avoir un excellent alignement entre les deux lithographies successives, ce qui implique un contrôle drastique de l’overlay.
La gravure LI1B fait ensuite apparaître la structure voulue dans le masque dur, qui sera ensuite transférée dans le diélectrique par l’étape de gravure finale précédant le remplissage de métal afin d’obtenir un réseau de lignes de métal à 64 nm de période.
Vers un contrôle spécifique du double patterning
Relation entre l’overlay et l’espace entre les lignes de mé-tal
Pour un procédé lithographique classique, l’obtention des tranchées – qui deviendront des lignes de métal – et des espaces se fait en une étape. Cela est mis en évidence par la figure 1.13.
La dimension des lignes et des espaces est liée par : CDespace = période − CDligne (1.17)
Pour un patterning classique, la variabilité des espaces et des lignes – l’uniformité du CD – est donc identique.
En revanche, dans le cas du double patterning, l’overlay entre les deux étapes LI1A et LI1B va avoir une influence directe sur la dimension des espaces entre les deux tranchées, comme le montre la figure 1.14.
Les dimensions des espaces dépendent donc de la période p, des dimensions des deux tranchées et de l’overlay OV L.
CDespace 1 = p − CDLI1A − CDLI1B +OVL (1.18)
CDespace 2 = p − CDLI1A − CDLI1B −OVL (1.19)
Uniformité de la dimension des espaces dans le cas du double patterning
L’uniformité du CD des espaces ΔCDespace dépend de l’uniformité de chaque tranchée ΔCDLI1A et ΔCDLI1B mais aussi de l’overlay moyen et de sa variabilité ΔOV L.
Effectuons une démonstration rapide de la formule énoncée dans une publication de Hazelton et al. traitant de la variabilité du procédé de double patterning [14].
Les deux distributions des lignes LI1A et LI1B sont considérées. Le but est d’exprimer la variabilité de la distribution groupée des deux lignes.
Les moyennes des dimensions de LI1A et LI1B sont nommées µA et µB, les écart-types : σA et σB.
La moyenne de la distribution groupée est : µg = µA+µB (1.20)
La scattérométrie
La scattérométrie est une mesure optique d’une structure périodique à plusieurs dimensions. L’état de polarisation de la lumière diffractée est une fonction des propriétés optiques des matériaux, de leur épaisseur, du pas des motifs périodiques et de leurs dimensions. Dans ce paragraphe, nous allons voir le principe de la scattérométrie, ainsi que son utilisation avec les deux configurations ellipsométriques les plus utilisées actuellement : à analyseur rotatif et à compensateur rotatif. Le gain de la configuration à compensateur rotatif est démontré, ce qui justifie le choix de cette configuration lors de la thèse.
Principe général
La scattérométrie génère une représentation en trois dimensions du motif mesuré après une étape de modélisation. On peut donc en extraire la valeur du CD mais aussi des informations supplémentaires sur le profil d’une structure périodique.
Le schéma de la figure 2.7 [24] illustre le principe de la mesure basée sur la diffraction d’un faisceau incident par une structure périodique, ici un réseau de lignes.
La scattérométrie a été développée suite aux travaux de modélisation des structures périodiques ayant mené à la RCWA – Rigorous Coupled Wave Analysis – nommée aussi MMFE pour Modal Method by Fourier Expansion. La RCWA a été formalisée par Moharam et Gaylord en 1981 [25]. La méthode a été améliorée successivement par différents auteurs comme Li [26] ou Lalane [27], qui ont permis de s’affranchir d’instabilités ou de limitations.
Dans le cas de la scattérométrie spectrale, un faisceau de lumière à large bande – 190 à 980 nm – est incident sur une mire.
La lumière subit alors une diffraction due à la structure périodique, souvent un réseau de lignes. La lumière diffractée à l’ordre zéro est captée par un détecteur optique. Une partie de la lumière est absorbée ou transmise à travers les couches de matériaux. Le détecteur collecte la lumière réfléchie, plus précisément son intensité ou son état de polarisation, et génère une information spectrale, la signature, en fonction de la longueur d’onde. Cette signature de la structure dépend de plusieurs facteurs dont la période spatiale du motif, c’est-à-dire le pas du réseau, son profil et donc la dimension critique, et les épaisseurs des différentes couches. La signature varie aussi en fonction des propriétés optiques des matériaux et de l’angle d’incidence du faisceau.
Les mesures sont réalisées en optimisant un modèle prédéfini, à partir des données spectrales correspondant à l’empilement que l’on cherche à reconstruire. Le déroulement de la mesure de scattérométrie est synthétisé sur la figure 2.8 dans le cas de la méthode des bibliothèques.
La méthode des bibliothèques consiste à simuler en amont un panel de combinaison des paramètres, générant alors de nombreuses signatures. Puis lors de la mesure, la signature simulée qui correspond le mieux à la signature mesurée est identifiée. Cette correspondance permet alors de déduire le CD et les épaisseurs des couches de l’empilement de la mire.
Cette méthode demande un temps de simulation préparatoire important, ce qui a incité à l’utilisation d’algorithmes plus poussés reposant sur la minimisation d’une fonction coût calculée à l’avance [28].
La précision de la mesure dépend d’abord de la précision expérimentale lors de l’acqui-sition des spectres. Chaque grandeur ellipsométrique est accompagnée de son écart-type pour toute longueur d’onde de l’intervalle spectral.
De plus, la précision de la mesure est liée à la qualité de l’optimisation. La différence entre les spectres simulés et les spectres mesurés, que l’on quantifie dans l’erreur quadratique moyenne, est ainsi un critère à minimiser. Plusieurs algorithmes de minimisation permettent l’optimisation, comme les méthodes Levenberg-Marquardt ou Gauss-Newton.
Cependant, comme la mesure est indirecte puisque reconstruite à partir d’un modèle, la solution trouvée suite à l’optimisation n’est pas garantie comme étant la solution exacte, même dans le cas de spectres coïncidant parfaitement.
En effet, il est indispensable d’étudier les corrélations entre les paramètres mesurés. Deux paramètres corrélés de manière excessive peuvent ainsi induire une erreur si la solution physique exacte n’est pas la seule à pouvoir correspondre aux spectres.
Instrumentation : l’ellipsométrie
La scattérométrie a été développée d’abord avec un faisceau monochromatique issu d’un laser avec des mesures faites à plusieurs angles d’incidence [29]. Cette technologie est encore utilisée aujourd’hui sous le nom de scattérométrie à angle résolu, bien qu’il soit plus courant d’adopter un système à angle fixe avec une source à large bande spectrale.
La scattérométrie spectrale utilise en fait l’instrumentation de l’ellipsométrie ou de la réflectométrie, les deux pouvant être combinées.
L’ellipsométrie a été développée théoriquement et expérimentalement par Drude en 1887 [30]. Pourtant, comme la mesure ellipsométrique était partiellement manuelle et donc difficile à mettre en place, son usage n’était pas très courant.
En 1975, Aspnes et Studna conçurent l’ellipsomètre spectroscopique entièrement au-tomatisé, ce qui permit des mesures bien plus rapides, mais aussi bien plus précises [31].
En 1990, une équipe développa un instrument utilisant un capteur à matrice de photodiodes qui permit la mesure simultanée de l’intensité lumineuse à de multiples longueurs d’onde [32]. L’ellipsométrie spectroscopique devint alors une technique de métrologie très intéressante pour l’industrie pour les mesures d’épaisseurs de couches minces.
L’ellipsométrie via le formalisme de Jones
l’ellipsométrie classique repose sur le formalisme de Jones.
Dans ce formalisme, chaque mouvement elliptique du champ électrique E peut être décomposé selon les axes x et y, avec des amplitudes A et des phases φ. On obtient le vecteur de Jones explicité dans la relation 2.2 [33]. Ey = Ay ejφy (2.2)
L’interaction avec l’échantillon à mesurer transforme le vecteur de Jones du faisceau incident en un autre vecteur de Jones via une transformation linéaire où les Jij sont les éléments de la matrice de Jones.
Exsortie = Jxx Jxy Exentrée (2.3)
Eysortie Jyx Jyy Eyentrée
Pour des échantillons plans et isotropes, la matrice de Jones est diagonale et les éléments diagonaux sont directement les coefficients complexes de Fresnel pour la polarisation p (parallèle au plan d’incidence) et s (perpendiculaire à ce même plan) : Rp et Rs.
En pratique, l’angle d’incidence est fixé typiquement autour de 65˚et le détecteur collecte l’ordre spéculaire de la lumière diffractée. Les deux paramètres ellipsométriques sont Ψ et Δ. Ils sont liés aux coefficients de Fresnel de la structure mesurée via la formule 2.4. Rp = tan ψ eiΔ (2.4)
Cette équation est valable pour toute structure symétrique. Une asymétrie peut en effet intervenir au sein de la structure : motif du réseau asymétrique par exemple. L’asymétrie peut être aussi due à la configuration expérimentale : angle azimutal du faisceau incident oblique à l’axe de symétrie du réseau.
L’ellipsométrie appliquée à la mesure des épaisseurs et des indices optiques
Avant la scattérométrie, l’application de l’ellipsométrie était la détermination des indices optiques des matériaux et leurs épaisseurs via les équations de Fresnel.
Cette détermination est possible en mesurant les grandeurs Ψ et Δ, ce qui permet de déduire le rapport des coefficients de réflexion Rp .
A la différence de la scattérométrie qui requiert des techniques de calcul numérique, la détermination des indices optiques et des épaisseurs est basée sur la résolution itérative des équations de Fresnel.
C’est une méthode analytique fondée sur un formalisme issu des travaux d’Abelès [34]. Ce formalisme permet de considérer la propagation d’un état de polarisation à travers un système de couches par des matrices de transfert. Une amélioration proposée par Kroesen [35] permet de modéliser un système de couches isotropes et anisotropes grâce à un formalisme d’impédance. Le lecteur intéressé par la résolution analytique des équations de Fresnel via ce forma-lisme trouvera dans le manuel de Fujiwara [36] une description détaillée.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction 9
1 Le patterning pour la microélectronique 
1.1 La microélectronique
1.1.1 Historique
1.1.2 Fabrication d’un circuit intégré
1.1.3 Les procédés
1.1.4 Nœud technologique et dimension critique
1.2 La photolithographie
1.2.1 Les étapes du procédé
1.2.2 L’overlay
1.3 Les défis pour le patterning
1.3.1 La réduction de la dimension critique
1.3.2 La résolution d’une structure périodique
1.4 La limite de résolution optique
1.5 Les solutions industrielles pour repousser la limite de résolution
1.5.1 La lithographie Extrême UV
1.5.2 Le double patterning
1.6 Vers un contrôle spécifique du double patterning
1.6.1 Relation entre l’overlay et l’espace entre les lignes de métal
1.6.2 Uniformité de la dimension des espaces dans le cas du double patterning
1.6.3 Spécifications pour le CD des lignes et l’overlay
2 La métrologie pour le contrôle de la lithographie 
2.1 Introduction
2.1.1 Notions de base en métrologie
2.1.2 Métrologie dédiée à la lithographie
2.2 La microscopie électronique à balayage (MEB)
2.2.1 Principe de la mesure
2.2.2 Les avancées
2.2.3 Les limites
2.2.4 Conclusion
2.3 La scattérométrie
2.3.1 Principe général
2.3.2 Instrumentation : l’ellipsométrie
2.3.3 L’ellipsométrie via le formalisme de Jones
2.3.4 L’ellipsométrie appliquée à la mesure des épaisseurs et des indices optiques
2.3.5 La configuration ellipsométrique à analyseur rotatif
2.3.6 La configuration ellipsométrique à compensateur rotatif
2.3.7 Gain du formalisme de Stokes-Mueller pour l’ellipsométrie à compensateur rotatif
2.3.8 Précision, sensibilité et corrélation
2.4 La mesure de l’overlay par imagerie
2.4.1 Les mires traditionnelles et leurs limites
2.4.2 Les mires actuelles
2.5 La mesure de l’overlay par diffraction
2.5.1 Réponse optique d’une mire de diffraction
2.5.2 Principe de la mesure d’overlay par diffraction
2.5.3 Fonctionnement de l’équipement de mesure
2.6 La métrologie spécifique au double patterning
2.6.1 Description de l’existant
2.6.2 Méthode développée lors de la thèse
2.7 Conclusion
3 Optimisation de la mesure de l’overlay pour le double patterning 
3.1 Introduction
3.2 Précision d’une mesure d’overlay
3.3 Conception de mires de mesure adaptées au procédé
3.3.1 Mires de mesure par imagerie
3.3.2 Mires de mesure par diffraction
3.4 Facteurs d’optimisation d’une recette de mesure
3.4.1 Optimisation d’une mesure d’overlay par imagerie
3.4.2 Optimisation d’une mesure d’overlay par diffraction
3.5 Simulation de la mesure d’overlay par diffraction
3.5.1 Introduction
3.5.2 Objectif de la simulation
3.5.3 Gamme d’angles d’incidence à simuler
3.5.4 Configurations des mires insérées dans le premier jeu de masque
3.5.5 Description du fonctionnement du code de simulation
3.5.6 Validation de la méthode de simulation
3.5.7 Résultats de simulation : sensibilité et erreur
3.5.8 Comparaison aux données expérimentales
3.5.9 Conclusion
3.6 Vérification de la justesse de la mesure par diffraction
3.6.1 Réalisation d’un overlay induit par le scanner
3.6.2 Corrélation avec la mesure d’overlay par imagerie
3.6.3 Analyse des termes modélisés et résiduels
3.7 La mesure de l’overlay après gravure
3.7.1 Mesure par imagerie de l’overlay après gravure
3.7.2 Mesure par diffraction de l’overlay après gravure
3.7.3 Mesure de l’overlay par Microscopie Electronique à Balayage
3.8 Amélioration de la précision de la mesure de l’overlay
3.9 Conclusion
4 Développement de la scattérométrie pour le double patterning 
4.1 Introduction
4.2 Caractérisation de l’ellipsomètre
4.2.1 Définition des paramètres instrumentaux
4.2.2 Vérification de l’angle d’incidence
4.2.3 Mesure de la dispersion angulaire et de la largeur spectrale
4.3 Détermination des indices optiques des matériaux
4.3.1 Principe de la mesure combinée par ellipsométrie et par réflectivité des rayons X
4.3.2 Cas particulier de la résine à développement négatif
4.4 Mesure des épaisseurs des matériaux de l’empilement du métal 1
4.4.1 Épaisseurs des matériaux après l’étape de dépôt du SiCN
4.4.2 Épaisseurs des matériaux après l’étape de dépôt du SiOC
4.5 Optimisation de la configuration expérimentale
4.5.1 Détermination d’un seuil de sensibilité
4.5.2 Sélection de l’angle azimutal d’acquisition des spectres
4.6 Mesure simultanée des dimensions critiques et de l’overlay
4.6.1 Optimisation de tous les paramètres de l’empilement
4.6.2 Résultats avec minimisation des corrélations croisées
4.7 Mesure du CD de l’oxyde après la gravure LI1A
4.8 Stratégie d’injection de données ou data feed forward
4.8.1 Principe
4.8.2 Sensibilité au CD de l’oxyde après la première gravure
4.8.3 Les limites de l’injection de données
4.9 Analyse multi-mires
4.9.1 Principe
4.9.2 Amélioration de la sensibilité au CD de l’oxyde
4.9.3 Mesure du CD de l’oxyde après la seconde lithographie
4.9.4 CD de l’oxyde : comparaison des résultats de mesure avant et après la seconde lithographie
4.9.5 Mesure du CD de la résine après la seconde lithographie
4.9.6 CD de la résine : comparaison à la mesure MEB sur l’ensemble de la plaque
4.9.7 Conclusion
4.10 Conception d’une mire optimisée pour l’overlay
4.10.1 Les limites de la mire à 128 nm de période confirmées par simulation135
4.10.2 Amélioration de la sensibilité à l’overlay par simulation : vers une mire à période de 300 nm
4.11 Conclusion
Conclusion générale et perspectives 
Bibliographie 

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *