Classification des défaillances
Les opérations défaillantes d’un composant menacent le bon fonctionnement du système, ainsi une opération anormale est appelée de diverses manières selon l’impact qu’elle a sur le composant où elle a lieu et la façon dont elle affecte le système. La classification et les définitions les plus souvent utilisées pour les opérations défectueuses sont répertoriées dans :
Faute : opération incorrecte dans un composant du système ;Erreur : état incorrect du système; Défaillance : état du système caractérisé par une réponse incorrecte aux stimuli qu’il reçoit.
Nous pouvons affirmer alors qu’une faute peut provoquer une erreur qui elle-même peut ultérieurement provoquer une défaillance. Il est important de souligner que cette classification ne correspond pas à une simple classification à partir du niveau hiérarchique où l’opération anormale agit. Ainsi, une erreur dans un transistor peut se traduire en une défaillance d’une porte logique qui en même temps peut impliquer une faute dans le circuit où elle est inserée.
Nos travaux concernent notamment les fautes. Nous visons l’analyse de l’influence des fautes dans la logique combinatoire. Les fautes pouvant provenir des entrées ou d’un élément du circuit, nous proposerons des modèles de calcul de la probabilité de propagation de ces fautes, et donc, la probabilité qu’elles provoquent des erreurs dans le système, c’est-à-dire provoquent un état incorrect des sorties.
Métrique de la fiabilité
Typiquement, la spécification de la fiabilité d’un système ou d’un élément se présente sous forme de taux d’erreur ou défaillance, c’est-à-dire, la fréquence avec laquelle se produit une erreur ou une défaillance. En général, le taux d’erreur d’un élément est designé par λ, ou λ(t), et s’exprime en [erreurs/unité de temps] . Les phénomènes menaçant le bon fonctionnement d’un système sont de nature aléatoire, par conséquent les mesures de fiabilité sont normalement basées sur des méthodes probabilistes et statistiques (prédiction) ou sur des méthodes empiriques et de test (estimation).
Pour les composants électroniques, l’évolution temporelle du taux d’erreur est représentée à partir de la courbe dite de la baignoire, qui agglomère trois phénomènes ayant un comportement différent en fonction du temps. Cette courbe représente l’addition des phénomènes de mortalité infantile, de fautes aléatoires et de vieillissement . La mortalité infantile est décroissante au cours du temps car les défauts induits lors de la fabrication du composant sont plus enclins à devenir visibles dans les premiers temps d’utilisation. La mortalité infantile est due à des problèmes liés à la fabrication des composants. Les fautes aléatoires sont dues à diverses causes, qui seront présentées plus en détail par la suite du document. Elles sont notamment dues à l’environnement, et ont donc un taux d’occurrence constant. La partie plate de la courbe représente le temps de vie utile. Le vieillissement, qui croît avec le temps, est dû à la fatigue des composants et à leur dégradation au cours du temps.
Perte de fiabilité dans les circuits numériques
Rendement des procédés
Le rendement d’un procédé de fabrication représente la fraction de puces fabriquées n’ayant pas de défaut sur le nombre total de puces fabriquées (yield en anglais). Plus le rendement est élevé, plus la qualité du procédé est grande. Dans les travaux présentés par Zorian et al., une classification des défauts possibles a été réalisée :
Systématiques : dus à des variations géométriques dans le processus de fabrication. Induites par conception : erreurs spécifiques de conception. Paramétriques : associées aux variations statistiques dans le dopage, la longueur du canal, l’épaisseur d’oxide de grille, etc.
Défauts induits : courts-circuits aléatoires, impacts de particules, vias manquants, contamination, etc. L’influence de chaque type de défaut varie selon le nœud technologique considéré. En effet, pour les technologies plus anciennes, les défauts induits étaient la source principale de perte de fiabilité et la méthode pour les surmonter consistait en l’amélioration des processus de fabrication. L’amélioration se basait sur l’utilisation de machines de fabrication plus performantes et des meilleurs matériaux. Ainsi, l’amélioration des procédés était indépendante des concepteurs de circuits. Au fur et à mesure que la technologie des semi-conducteurs approche des dimensions nanométriques et que les machines utilisées lors de la fabrication atteignent leurs limites de précision, les sources principales de perte de fiabilité deviennent les défauts systématiques et induits par le procédé de fabrication. En effet, plus le nœud technologique utilisé est de taille réduite, plus le risque d’avoir une différence entre la géométrie conçue et la géométrie obtenue après la fabrication est grand.
Malgré les efforts réalisés par l’industrie des semi-conducteurs, il est admis que ces défauts deviendront inévitables, et que les techniques de tolérance aux fautes seront nécessaires pour assurer un rendement acceptable. Même si les effets de perte de fiabilité liés aux procédés de fabrication sont un des défis majeurs de l’industrie de semi-conducteurs, il y a d’autres facteurs qui altèrent le bon fonctionnement des circuits, notamment les fautes transitoires et intermittentes dues à l’environnement. Les travaux de cette thèse portent notamment sur ces effets.
Fautes transitoires dans la logique
Le comportement fiable d’un circuit est lié à sa capacité à tolérer la présence de fautes pendant son fonctionnement. Ainsi, les fautes, selon leur comportement temporel, peuvent être déclinées en trois groupes différents :
Permanentes : elles sont provoquées par des changements irréversibles dans un élément du circuit. Elles sont connues sous le nom de hard-error.
Intermittentes : il s’agit de fautes d’une durée déterminée qui ont lieu d’une manière répétitive au cours du temps.
Transitoires : fautes aléatoires, d’une durée déterminée. Elles sont dues à des agents externes au circuit, comme les particules ionisantes, le bruit thermique, etc. Elles sont aussi connues sous le nom de soft-error. Elles ont la propriété de disparaître lorsque la source de l’erreur disparaît.
Les fautes permanentes sont notamment liées au rendement des procédés, et pendant la vie utile des composants elles peuvent être considérées comme négligeables. Les fautes intermittentes sont surtout liées à des variations paramétriques et peuvent être contrôlées en utilisant des procédures de test adéquates.
Les fautes transitoires représentent un défi pour la conception de circuits fiables car leur nature aléatoire nécessite une modélisation complexe. Les travaux de cette thèse concernent notamment les fautes de type transitoire dans la logique combinatoire. Leur importance dans la problématique de la fiabilité est croissante.
Analyse de la fiabilité des cellules élémentaires
L’analyse des cellules basiques d’un système est essentielle pour l’évaluer postérieurement dans sa globalité. Dans cette section nous présentons les différents types d’approches pour l’analyse du taux de SEU, qui concerne les éléments de mémorisation, et du SET, qui concerne la logique. Typiquement, la mesure de la fiabilité de ce type de composant est donnée par le SER.
Durant la vie utile d’un composant (cellules SRAM, flip-flops, porte logique, etc.), le phénomène dominant affectant la fiabilité de ce type de composant est celui des fautes de type transitoire, tels que SEU et SET . La prédition du SER n’est pas une tâche évidente, car les fautes sont distribuées de manière aléatoire dans le temps, et en plus leur effets ne sont pas permanents, leur observation est alors difficile. Pour l’estimation du SER d’un composant de ce type il existe deux types d’approches principales :
Approches expérimentales : les tests radiatifs. Approches analytiques : modélisation et la simulation. Les coûts des tests radiatifs étant très élevés, leur utilisation est surtout destinée à la validation de composants. Les tests radiatifs ne sont pas adaptés à l’étude des cellules de logique. En effet, l’observation d’un SET est très compliquée car elle nécessite un accès à la valeur contenue par le composant. Les approches analytiques par simulation se sont imposées donc naturellement. Ce type d’approche se décline en deux branches : les simulations basées sur des modèles physiques du composant et les simulations multi-dimensionnelles du composant (notamment la TCAD). Concernant les simulations basées sur des modèles physiques, l’approche la plus utilisée est le modèle de diffusion-collection. Cette approche n’est pas très coûteuse en termes de complexité, mais son efficacité devient limitée lors de l’analyse de composants à géométrie réduite . Une approche plus précise mais aussi plus coûteuse est basée sur l’utilisation de codes utilisant des modèles d’hydrodynamique et d’équilibre énergétique. Une alternative très précise mais aussi très coûteuse est les simulations basées sur le méthodes de type Monte-Carlo. Ce type de simulation nécessite un grand nombre d’itérations pour obtenir une bonne estimation.
Les simulations multi-dimensionnelles modélisent l’impact des particules sur la cellule élémentaire, et sont capables de simuler les différentes géométries d’impact avec plus de précision que les méthodologies précédentes.
Nous avons discuté sur la modélisation physique au niveau de composants des fautes transitoires. En montant d’un niveau hiérarchique, ce type de modélisation peut être utilisé pour compléter les modèles visant à l’évaluation de la fiabilité au niveau logique des circuits.
|
Table des matières
Introduction
1 Fiabilité des circuits électroniques numériques
1.1 Introduction
1.2 Généralités sur la fiabilité
1.2.1 Définitions
1.2.2 Classification des défaillances
1.2.3 Métrique de la fiabilité
1.3 Perte de fiabilité dans les circuits numériques
1.3.1 Rendement des procédés
1.3.2 Fautes transitoires dans la logique
1.4 Techniques de protection aux fautes
1.5 Conclusion
2 Techniques d’analyse de la fiabilité
2.1 Introduction
2.2 Analyse de la fiabilité des cellules élémentaires
2.3 Analyse de la fiabilité de fonctions logiques complexes
2.3.1 Analyse par injection de fautes
2.3.2 Probabilité de propagation de fautes
2.4 Conclusion
3 Proposition de méthodes d’estimation de la fiabilité
3.1 Introduction
3.2 Estimation des probabilités des signaux
3.2.1 Estimation de la probabilité jointe de signaux à partir des probabilités conditionnelles
3.3 Modélisation par Matrices de Probabilités Conditionnées
3.3.1 Calcul de probabilités conditionnées d’état d’un signal dans la logique combinatoire
3.3.2 Calcul de la fiabilité à partir des matrices CPM
3.3.3 Réduction de la taille des matrices CPM intermédiaires
3.3.4 Estimation de la corrélation des entrées
3.3.5 Méthode CPM approximée
3.4 Méthode CPM hiérarchique
3.4.1 Calcul de probabilités de sortie d’un bloc combinatoire en fonction des entrées
3.4.2 Décomposition modulaire disjointe
3.4.3 Décomposition modulaire non-disjointe
3.4.4 Estimation de la complexité
4 Application : durcissement sélectif et analyse FMDEA
4.1 Introduction
4.2 Durcissement sélectif
4.2.1 Introduction
4.2.2 Techniques de durcissement
4.2.3 Calcul de la sensibilité de la fiabilité aux fautes des portes
4.2.4 Calcul hiérarchique de la sensibilité
4.2.5 Etude de cas : Additionneur Brent-Kung de 32 bits
4.3 Analyse FMDEA
4.3.1 Introduction à la norme ISO 26262
4.3.2 Analyse de la borne inférieure de la fiabilité d’un circuit
4.3.3 Résultats
4.4 Conclusions
5 Validation expérimentale
5.1 Introduction
5.2 Analyse des performances
5.3 Commentaires
5.4 Développement d’un outil de prédiction de la fiabilité
6 Conclusion
Liste des publications
Annexes
A Mise en œuvre des modèles de fiabilité avec MATLAB
B Intégration des éléments de logique séquentielle
B.1 Méthodologie proposée
B.2 Résultats
Bibliographie
Télécharger le rapport complet