Télécharger le fichier pdf d’un mémoire de fin d’études
Les procédés
Le principe de fabrication des composants électroniques consiste à créer sur une plaque de semiconducteur les zones dopées, les zones d’oxyde et les zones de contact nécessaires. La surface d’un composant élémentaire est très inférieure à celle de la plaque, appelée wafer, ce qui permet de fabriquer de nombreux composants comme les transistors. L’industrie fabrique en pratique des ensembles de composants interconnectés : les circuits. Chaque circuit peut comporter des millions de composants.
La première étape de fabrication consiste à déposer une couche uniforme de matériau. Puis les différentes régions sont structurées par le patterning qui regroupe la photolitho-graphie et l’étape de gravure.
A la suite de la gravure, une étape de remplissage – métallique le plus souvent– est réalisée. Pour certains niveaux, au lieu de la gravure, la photolithographie est suivie par une étape de dopage des zones qui ne sont plus recouvertes de résine.
Afin de corriger les défauts de topographie éventuels et enlever le surplus de matière, une étape de polissage mécanico-chimique – la CMP – est réalisée, avant que le wafer subisse un nettoyage – le Wet Clean.
Nœud technologique et dimension critique
La dimension critique, abrégée CD pour critical dimension, est la taille du plus petit motif imprimé par le procédé de patterning pour un niveau donné.
Un article publié en 2013 [4] propose une analyse sur la correspondance entre les nœuds technologiques et les dimensions caractéristiques d’un circuit. L’auteur explique que, depuis la technologie 0.35 micron qui était réellement la dimension de la largeur de grille d’un transistor, la valeur du nœud technologique n’est plus directement liée à cette grandeur. A l’époque de cette technologie développée dans les années 1990, le CD de la grille était directement lié à la performance d’un circuit via le temps de commutation d’un transistor.
Afin de suivre la loi de Moore, les industriels ont défini la valeur du nœud d’une technologie en réduisant de 30% celle de la technologie précédente. De fait, une réduction de 30% pour chaque direction correspond à une réduction de 50% de la taille occupée par un transistor, ce qui est en accord avec le critère de doublement de la densité de transistors.
Depuis le début des années 2000, des facteurs d’amélioration ont été développés comme le changement de la nature des matériaux de la grille ou des isolants, ou bien l’introduction de contraintes dans le canal.
Ces innovations ont permis de produire des circuits plus performants en complément de la réduction du CD de la grille. Mais la valeur du nœud technologique a continué de chuter linéairement alors que la réduction du CD de la grille s’amortissait. Ainsi depuis 2011, GlobalFoundries annonce une dimension de grille supérieure au nœud technologique comme le montre la figure 1.2.
Cependant, un nœud technologique peut aussi être défini comme étant la moitié du pas – le half pitch – de la structure la plus dense du circuit. Pour la technologie CMOS 14 nm conçue par STMicroelectronics, la période des structures les plus denses est de 64 nm et le half pitch est donc de 32 nm.
Cette valeur de période du métal 1 est similaire à celle de la technologie FinFET 14 nm produite par la firme américaine Intel qui conçoit son premier niveau de métal à 62 nm de période comme l’annonce une publication de l’IMEC en 2012 [5].
Ainsi, pour la technologie 14 nm conçue chez STMicroelectronics, les structures les plus denses sont les premiers niveaux de métal. La dimension critique du métal après les étapes de lithographie, de gravure et de remplissage doit être de 32 nm. Le défi n’est pas d’obtenir un motif d’une dimension de 32 nm car la gravure permet de réduire la taille d’une ligne imprimée par la lithographie.
En revanche, nous verrons que c’est bien la période de 64 nm qui va poser problème en raison de la limite de résolution de l’équipement d’exposition émanant du phénomène de diffraction optique.
La photolithographie
Les étapes du procédé
La photolithographie est composée de plusieurs étapes successives. Très souvent, une couche antireflet – BARC pour Bottom Anti-Reflective Coating – ainsi qu’un matériau carboné planarisant – OPL pour Optical Planarization Layer – sont déposés sur le diélectrique à graver. Puis une résine photosensible, composée typiquement de polymères organiques, est disposée le plus uniformément possible.
L’exposition est réalisée via un système de projection optique qui va insoler la résine en projetant l’image d’un réticule.
Cette image subit un facteur de réduction en fonction des lentilles utilisées dans la projection. Elle représente le champ d’exposition sur la plaque. Ce processus est répété sur la plaque entière en combinant un déplacement rapide de la plaque avec un balayage du champ d’exposition grâce à un obturateur comme l’illustre la figure 1.3.
Une fois la résine exposée, elle subit un recuit dans le but de figer les réactions chimiques au sein du matériau. Puis la résine est développée, c’est-à-dire que l’on retire une partie du matériau afin de faire apparaître les motifs voulus. Pour une résine à développement positif, les zones exposées sont solubles dans la solution qui fait office de développeur. Pour une résine à développement négatif, ce sont les zones non exposées qui sont retirées pendant l’étape de développement. Ensuite, une étape de mesure post-développement est effectuée afin de vérifier que les dimensions des motifs imprimés dans la résine respectent les spécifications. De plus, une mesure de l’erreur d’alignement doit être réalisée car un décalage trop important entre deux niveaux peut induire une non-fonctionnalité du circuit produit.
Si cette étape de métrologie met en évidence une dimension des motifs ou une erreur d’alignement en dehors de la zone de tolérance, il est possible de recommencer l’étape de lithographie, c’est-à-dire de retirer l’ensemble de la résine et de refaire le dépôt et l’exposition : c’est ce que l’on appelle un rework.
L’overlay
La qualité de l’alignement d’un niveau sur un autre s’avère un paramètre majeur pour la fonctionnalité d’un circuit [6].
Si l’on considère l’exemple de la lithographie du niveau contact illustré par la figure 1.5, on comprend qu’un désalignement entre la grille d’un transistor et son contact va provoquer un dysfonctionnement du transistor dû à cette connexion défectueuse. Cependant, une certaine tolérance est possible dans l’alignement car le transistor peut fonctionner tant que la surface de recouvrement entre la grille et le contact est suffisante. Cette notion de recouvrement explique pourquoi le terme overlay – verbe signifiant en anglais recouvrir – est utilisé à sa forme substantive pour définir le désalignement entre deux niveaux de lithographie.
Les erreurs d’alignement, génératrices d’overlay, peuvent être considérées hiérarchique-ment. Les erreurs majeures sont dues à la précision de la platine de positionnement du système de projection. S’ajoutent les erreurs dues à la conception du réticule.
Pour modéliser l’overlay, il est nécessaire de séparer les erreurs dues aux variations d’overlay dans le champ d’exposition, que l’on nomme les erreurs intra-champ, et celles qui varient d’un champ à l’autre et qui sont donc nommées les erreurs inter-champs.
Ces erreurs inter-champs sont définies en X et en Y par les équations 1.1 et 1.2.
ΔX = Tx + MxX − RxY + ex (1.1)
ΔY = Ty + MyY + RyX + ey (1.2)
Les paramètres Tx et Ty représentent les erreurs de translation et indiquent un décalage global du champ imprimé par rapport au champ du substrat. Les facteurs Mx et My sont des erreurs de grandissement. Elles sont exprimées en parties par million (ppm). Rx et Ry sont les facteurs de rotation en X et en Y. Ce sont des sinus d’angle très faibles qui sont donc souvent exprimés en radians.
Les termes ex et ey sont les erreurs résiduelles qui ne se conforment pas au modèle. Elles émanent de la précision de la platine de positionnement mais aussi d’effets non linéaires comme le changement de température du wafer durant l’exposition ou encore des distorsions plastiques non linéaires du wafer.
Il est possible d’exprimer les erreurs de grandissement et de rotation pour les deux directions X et Y en fonction de grandissements et rotations symétriques et asymétriques via les équations 1.3 et 1.4.
Mx = Ms + Ma et My = Ms − Ma (1.3)
Rx = Rs + Ra et Ry = Rs − Ra (1.4)
Les erreurs intra-champ sont représentées dans la figure 1.7.
Ces erreurs intra-champ pour un système lithographique d’exposition à balayage sont modélisées par les équations 1.5 et 1.6.
δX = mxX − rxY + ex (1.5)
δY = myY + ryX + ey (1.6)
Les paramètres mx et my sont les erreurs de grandissement en X et Y et sont exprimés en ppm. Les coefficients rx et ry représentent la rotation du réticule en X et Y en radians. Les termes ex et ey sont les erreurs résiduelles.
De la même façon que pour les paramètres inter-champs, on peut introduire, pour l’intra-champ, des paramètres de grandissement et rotation symétriques et asymétriques : ms, ma, rs et ra. Les paramètres mx, my, rx et ry s’écrivent alors selon les équations 1.7 et 1.8.
mx = ms + ma et my = ms − ma (1.7)
rx = rs + ra et ry = rs − ra (1.8)
Pour chaque point du wafer, l’erreur d’overlay est la somme des erreurs inter-champs et intra-champ.
Afin de contrôler l’overlay, il est important d’identifier les erreurs et donc de déterminer les différents coefficients. Ils peuvent être extraits des données d’overlay mesurées sur wafer qui sont modélisées. Les coefficients sont calculés en minimisant la somme quadratique des erreurs résiduelles pour tous les points mesurés sur wafer.
La résolution d’une structure périodique
Le schéma de la figure 2.7 [24] illustre le principe de la mesure basée sur la diffraction d’un faisceau incident par une structure périodique, ici un réseau de lignes.
La scattérométrie a été développée suite aux travaux de modélisation des structures périodiques ayant mené à la RCWA – Rigorous Coupled Wave Analysis – nommée aussi MMFE pour Modal Method by Fourier Expansion. La RCWA a été formalisée par Moharam et Gaylord en 1981 [25]. La méthode a été améliorée successivement par différents auteurs comme Li [26] ou Lalane [27], qui ont permis de s’affranchir d’instabilités ou de limitations.
Dans le cas de la scattérométrie spectrale, un faisceau de lumière à large bande – 190 à 980 nm – est incident sur une mire.
La lumière subit alors une diffraction due à la structure périodique, souvent un réseau de lignes. La lumière diffractée à l’ordre zéro est captée par un détecteur optique. Une partie de la lumière est absorbée ou transmise à travers les couches de matériaux. Le détecteur collecte la lumière réfléchie, plus précisément son intensité ou son état de polarisation, et génère une information spectrale, la signature, en fonction de la longueur d’onde. Cette signature de la structure dépend de plusieurs facteurs dont la période spatiale du motif, c’est-à-dire le pas du réseau, son profil et donc la dimension critique, et les épaisseurs des différentes couches. La signature varie aussi en fonction des propriétés optiques des matériaux et de l’angle d’incidence du faisceau.
Les mesures sont réalisées en optimisant un modèle prédéfini, à partir des données spectrales correspondant à l’empilement que l’on cherche à reconstruire. Le déroulement de la mesure de scattérométrie est synthétisé sur la figure 2.8 dans le cas de la méthode des bibliothèques.
La méthode des bibliothèques consiste à simuler en amont un panel de combinaison des paramètres, générant alors de nombreuses signatures. Puis lors de la mesure, la signature simulée qui correspond le mieux à la signature mesurée est identifiée. Cette correspondance permet alors de déduire le CD et les épaisseurs des couches de l’empilement de la mire.
Cette méthode demande un temps de simulation préparatoire important, ce qui a incité à l’utilisation d’algorithmes plus poussés reposant sur la minimisation d’une fonction coût calculée à l’avance [28].
La précision de la mesure dépend d’abord de la précision expérimentale lors de l’acqui-sition des spectres. Chaque grandeur ellipsométrique est accompagnée de son écart-type pour toute longueur d’onde de l’intervalle spectral.
De plus, la précision de la mesure est liée à la qualité de l’optimisation. La différence entre les spectres simulés et les spectres mesurés, que l’on quantifie dans l’erreur quadratique moyenne, est ainsi un critère à minimiser. Plusieurs algorithmes de minimisation permettent l’optimisation, comme les méthodes Levenberg-Marquardt ou Gauss-Newton.
Cependant, comme la mesure est indirecte puisque reconstruite à partir d’un modèle, la solution trouvée suite à l’optimisation n’est pas garantie comme étant la solution exacte, même dans le cas de spectres coïncidant parfaitement.
En effet, il est indispensable d’étudier les corrélations entre les paramètres mesurés. Deux paramètres corrélés de manière excessive peuvent ainsi induire une erreur si la solution physique exacte n’est pas la seule à pouvoir correspondre aux spectres.
La scattérométrie spectrale utilise en fait l’instrumentation de l’ellipsométrie ou de la réflectométrie, les deux pouvant être combinées.
L’ellipsométrie a été développée théoriquement et expérimentalement par Drude en 1887 [30]. Pourtant, comme la mesure ellipsométrique était partiellement manuelle et donc difficile à mettre en place, son usage n’était pas très courant.
En 1975, Aspnes et Studna conçurent l’ellipsomètre spectroscopique entièrement au-tomatisé, ce qui permit des mesures bien plus rapides, mais aussi bien plus précises [31].
En 1990, une équipe développa un instrument utilisant un capteur à matrice de photodiodes qui permit la mesure simultanée de l’intensité lumineuse à de multiples longueurs d’onde [32]. L’ellipsométrie spectroscopique devint alors une technique de métrologie très intéressante pour l’industrie pour les mesures d’épaisseurs de couches minces.
Dans ce formalisme, chaque mouvement elliptique du champ électrique E peut être décomposé selon les axes x et y, avec des amplitudes A et des phases φ. On obtient le vecteur de Jones explicité dans la relation 2.2 [33]. Ey = Ay ejφy (2.2)
L’interaction avec l’échantillon à mesurer transforme le vecteur de Jones du faisceau incident en un autre vecteur de Jones via une transformation linéaire où les Jij sont les éléments de la matrice de Jones.
Exsortie = Jxx Jxy Exentrée (2.3)
Eysortie Jyx Jyy Eyentrée
Pour des échantillons plans et isotropes, la matrice de Jones est diagonale et les éléments diagonaux sont directement les coefficients complexes de Fresnel pour la polarisation p (parallèle au plan d’incidence) et s (perpendiculaire à ce même plan) : Rp et Rs.
En pratique, l’angle d’incidence est fixé typiquement autour de 65˚et le détecteur collecte l’ordre spéculaire de la lumière diffractée. Les deux paramètres ellipsométriques sont Ψ et Δ. Ils sont liés aux coefficients de Fresnel de la structure mesurée via la formule 2.4. Rp = tan ψ eiΔ (2.4)
Cette équation est valable pour toute structure symétrique. Une asymétrie peut en effet intervenir au sein de la structure : motif du réseau asymétrique par exemple. L’asymétrie peut être aussi due à la configuration expérimentale : angle azimutal du faisceau incident oblique à l’axe de symétrie du réseau.
Cette détermination est possible en mesurant les grandeurs Ψ et Δ, ce qui permet de déduire le rapport des coefficients de réflexion Rp .
A la différence de la scattérométrie qui requiert des techniques de calcul numérique, la détermination des indices optiques et des épaisseurs est basée sur la résolution itérative des équations de Fresnel.
C’est une méthode analytique fondée sur un formalisme issu des travaux d’Abelès [34]. Ce formalisme permet de considérer la propagation d’un état de polarisation à travers un système de couches par des matrices de transfert. Une amélioration proposée par Kroesen [35] permet de modéliser un système de couches isotropes et anisotropes grâce à un formalisme d’impédance. Le lecteur intéressé par la résolution analytique des équations de Fresnel via ce forma-lisme trouvera dans le manuel de Fujiwara [36] une description détaillée.
|
Table des matières
Introduction 9
1 Le patterning pour la microélectronique
1.1 La microélectronique
1.1.1 Historique
1.1.2 Fabrication d’un circuit intégré
1.1.3 Les procédés
1.1.4 Nœud technologique et dimension critique
1.2 La photolithographie
1.2.1 Les étapes du procédé
1.2.2 L’overlay
1.3 Les défis pour le patterning
1.3.1 La réduction de la dimension critique
1.3.2 La résolution d’une structure périodique
1.4 La limite de résolution optique
1.5 Les solutions industrielles pour repousser la limite de résolution
1.5.1 La lithographie Extrême UV
1.5.2 Le double patterning
1.6 Vers un contrôle spécifique du double patterning
1.6.1 Relation entre l’overlay et l’espace entre les lignes de métal
1.6.2 Uniformité de la dimension des espaces dans le cas du double patterning
1.6.3 Spécifications pour le CD des lignes et l’overlay
2 La métrologie pour le contrôle de la lithographie
2.1 Introduction
2.1.1 Notions de base en métrologie
2.1.2 Métrologie dédiée à la lithographie
2.2 La microscopie électronique à balayage (MEB)
2.2.1 Principe de la mesure
2.2.2 Les avancées
2.2.3 Les limites
2.2.4 Conclusion
2.3 La scattérométrie
2.3.1 Principe général
2.3.2 Instrumentation : l’ellipsométrie
2.3.3 L’ellipsométrie via le formalisme de Jones
2.3.4 L’ellipsométrie appliquée à la mesure des épaisseurs et des indices optiques
2.3.5 La configuration ellipsométrique à analyseur rotatif
2.3.6 La configuration ellipsométrique à compensateur rotatif
2.3.7 Gain du formalisme de Stokes-Mueller pour l’ellipsométrie à compensateur rotatif
2.3.8 Précision, sensibilité et corrélation
2.4 La mesure de l’overlay par imagerie
2.4.1 Les mires traditionnelles et leurs limites
2.4.2 Les mires actuelles
2.5 La mesure de l’overlay par diffraction
2.5.1 Réponse optique d’une mire de diffraction
2.5.2 Principe de la mesure d’overlay par diffraction
2.5.3 Fonctionnement de l’équipement de mesure
2.6 La métrologie spécifique au double patterning
2.6.1 Description de l’existant
2.6.2 Méthode développée lors de la thèse
2.7 Conclusion
3 Optimisation de la mesure de l’overlay pour le double patterning
3.1 Introduction
3.2 Précision d’une mesure d’overlay
3.3 Conception de mires de mesure adaptées au procédé
3.3.1 Mires de mesure par imagerie
3.3.2 Mires de mesure par diffraction
3.4 Facteurs d’optimisation d’une recette de mesure
3.4.1 Optimisation d’une mesure d’overlay par imagerie
3.4.2 Optimisation d’une mesure d’overlay par diffraction
3.5 Simulation de la mesure d’overlay par diffraction
3.5.1 Introduction
3.5.2 Objectif de la simulation
3.5.3 Gamme d’angles d’incidence à simuler
3.5.4 Configurations des mires insérées dans le premier jeu de masque
3.5.5 Description du fonctionnement du code de simulation
3.5.6 Validation de la méthode de simulation
3.5.7 Résultats de simulation : sensibilité et erreur
3.5.8 Comparaison aux données expérimentales
3.5.9 Conclusion
3.6 Vérification de la justesse de la mesure par diffraction
3.6.1 Réalisation d’un overlay induit par le scanner
3.6.2 Corrélation avec la mesure d’overlay par imagerie
3.6.3 Analyse des termes modélisés et résiduels
3.7 La mesure de l’overlay après gravure
3.7.1 Mesure par imagerie de l’overlay après gravure
3.7.2 Mesure par diffraction de l’overlay après gravure
3.7.3 Mesure de l’overlay par Microscopie Electronique à Balayage
3.8 Amélioration de la précision de la mesure de l’overlay
3.9 Conclusion
4 Développement de la scattérométrie pour le double patterning
4.1 Introduction
4.2 Caractérisation de l’ellipsomètre
4.2.1 Définition des paramètres instrumentaux
4.2.2 Vérification de l’angle d’incidence
4.2.3 Mesure de la dispersion angulaire et de la largeur spectrale
4.3 Détermination des indices optiques des matériaux
4.3.1 Principe de la mesure combinée par ellipsométrie et par réflectivité des rayons X
4.3.2 Cas particulier de la résine à développement négatif
4.4 Mesure des épaisseurs des matériaux de l’empilement du métal 1
4.4.1 Épaisseurs des matériaux après l’étape de dépôt du SiCN
4.4.2 Épaisseurs des matériaux après l’étape de dépôt du SiOC
4.5 Optimisation de la configuration expérimentale
4.5.1 Détermination d’un seuil de sensibilité
4.5.2 Sélection de l’angle azimutal d’acquisition des spectres
4.6 Mesure simultanée des dimensions critiques et de l’overlay
4.6.1 Optimisation de tous les paramètres de l’empilement
4.6.2 Résultats avec minimisation des corrélations croisées
4.7 Mesure du CD de l’oxyde après la gravure LI1A
4.8 Stratégie d’injection de données ou data feed forward
4.8.1 Principe
4.8.2 Sensibilité au CD de l’oxyde après la première gravure
4.8.3 Les limites de l’injection de données
4.9 Analyse multi-mires
4.9.1 Principe
4.9.2 Amélioration de la sensibilité au CD de l’oxyde
4.9.3 Mesure du CD de l’oxyde après la seconde lithographie
4.9.4 CD de l’oxyde : comparaison des résultats de mesure avant et après la seconde lithographie
4.9.5 Mesure du CD de la résine après la seconde lithographie
4.9.6 CD de la résine : comparaison à la mesure MEB sur l’ensemble de la plaque
4.9.7 Conclusion
4.10 Conception d’une mire optimisée pour l’overlay
4.10.1 Les limites de la mire à 128 nm de période confirmées par simulation135
4.10.2 Amélioration de la sensibilité à l’overlay par simulation : vers une mire à période de 300 nm
4.11 Conclusion
Conclusion générale et perspectives
Bibliographie
Télécharger le rapport complet