Analyse de risque d’interférence électromagnétique 

Télécharger le fichier pdf d’un mémoire de fin d’études

La conception en CEM

De nos jours, la conception en CEM est un savoir-faire stratégique dans les secteurs industriels comme l’automobile ou l’aéronautique. Dans ces secteurs d’activités, la communauté CEM est à la recherche de techniques efficaces, plus fiables et plus économiques. En s’appuyant sur l’élaboration du cahier des charges, les concepteurs doivent identifier les risques potentiels de dysfonctionnement (susceptibilité) ou de dépassement de gabarit (émissivité).
Le recensement de ces risques s’appuie sur le cahier des charges qui liste les performances que le dispositif doit vérifier, ainsi que sur l’analyse des risques d’auto-perturbations internes au dispositif. Ce recensement est le fruit de l’expertise et de la capitalisation des projets de développement passés. Un risque CEM se traduit par un schéma du type Source-CouplageVictime. Cela nécessite une connaissance la plus précise possible de la nature de la source, du niveau de susceptibilité de la victime et de la quantification du couplage. Les deux premières conditions sont nécessaires pour évaluer un scénario CEM, tandis que la quantification du couplage peut s’appuyer sur un calcul analytique, des codes de calcul ou une approche expérimentale. A l’issue de l’étude quantitative du scénario CEM, les informations obtenues permettent au concepteur de faire évoluer l’architecture électrique/électronique du « dispositif » si nécessaire, ou de décider de l’ajout de dispositifs de protection (blindage, filtrage).
Les évaluations actuelles reposent très majoritairement sur une analyse déterministe de ces différents scénarios en recourant de plus en plus systématiquement à la simulation électrique/- électronique. Toutefois, la modélisation déterministe présente certaines difficultés pour évaluer les risques de défaut de systèmes, en raison de la dispersion des valeurs possibles prises par certains paramètres (relative au système et/ou à l’environnement EM). La méconnaissance de l’impact de ces incertitudes conduit alors potentiellement, à prendre des marges de conception importantes entraînant des surcoûts liés au processus de fabrication. Il est donc devenu nécessaire de considérer l’effet des incertitudes en CEM. Ceci est l’objet de la section suivante.

Impact des incertitudes en CEM

Depuis quelques années, de nombreuses démarches statistiques ont été introduites en CEM. Un intérêt particulier est porté à ces outils en raison de la complexité des phénomènes physiques observés et des nombreuses variables conditionnant les calculs d’interférence électromagnétique. La modélisation de ces niveaux d’interférence est difficilement concevable de manière entièrement déterministe ou sous forme d’études paramétriques exhaustives compte tenu des coûts de calcul. Par contre, ils peuvent être plus naturellement décrits sous la forme d’une statistique.
En effet, les modèles de simulation numérique utilisés pour la prédiction d’une interférence ne donnent des résultats acceptables que si les paramètres d’entrée qu’on leur fournit sont parfaitement connus. Cependant, certaines structures étudiées en CEM sont décrites par des facteurs inconnus ou parfois mal définis. Un exemple typique pour illustrer ces limites peut être donné par un toron dans un avion dont la position relative des câbles est inconnue car non contrôlable (Fig. 2.1). Une certaine variabilité de cette structure existe donc entre deux avions de modèle identique : trajet imparfaitement défini, position des câbles…
De plus, les impédances d’extrémité présentées par les équipements connectés en bout de ligne peuvent être vaguement connues. Le manque de connaissance sur ces paramètres d’entrée peut entraîner une mauvaise prédiction des niveaux d’interférence et des risques de défauts.
Pour les raisons évoquées, la prise en compte des incertitudes impactant les niveaux d’interférences de systèmes est étudiée par de plus en plus d’organismes de recherche. Parmi ces acteurs, on peut citer par exemple le CEA/Gramat, l’institut Pascal, l’institut Xlim, le Dé- partement d’Électronique de Politecnico di Torino et, dans le cadre des travaux objet de ce manuscrit, l’IETR. Ainsi, cette thèse est le fruit d’une collaboration entre l’IETR et le CEA/ Gramat. Nous présentons alors brièvement les activités de ce dernier dans la section suivante, avant d’introduire la méthodologie globale du traitement des incertitudes.

Méthodologie globale du traitement d’incertitudes

La prise en compte de l’incertain dans la modélisation d’un problème physique se fait par un ensemble d’outils statistiques et de méthodes probabilistes qui permettent dans un premier temps de quantifier les sources d’incertitude relatives au problème, puis dans un second temps de propager ces incertitudes à travers un modèle numérique.
L’objectif de cette section est d’introduire un ensemble de techniques couramment utilisées en modélisation statistique et probabiliste. Une définition des sources d’incertitude est d’abord introduite, suivie de différentes méthodes de modélisation de l’aléa, prenant en compte les différentes sources d’information (e.g. avis d’expert, observations numériques, etc.).

Types d’incertitude

Un modèle mathématique est une représentation abstraite et simplifiée d’un phénomène physique sous forme d’équations liant des paramètres d’entrée. La conception d’un modèle M nécessite, dans un premier de temps, d’identifier tous les paramètres intervenant en entrée du modèle. De manière systématique, l’identification de paramètres d’un modèle s’effectue à partir d’observations. Lors de la modélisation, une valeur, i.e. la mesure sera attribuée à chaque observation. En général, chaque mesure est liée à une incertitude provenant essentiellement du dispositif expérimental. Essentiellement, deux types de sources d’incertitude peuvent être associée à l’incertitude de mesure :
le comportement aléatoire du phénomène physique observé et vérifié expérimentalement mène à une dispersion statistique plus ou moins importante des mesures. Par exemple, la valeur du niveau d’interférence entrainant un défaut CEM sur un composant électronique est considéré comme intrinsèquement aléatoire ;
l’incertitude épistémique correspondant au manque de connaissance du phénomène physique d’intérêt.
Dans beaucoup de cas, il est difficile d’établir une distinction claire entre l’incertitude épistémique et aléatoire puisque les deux types d’incertitude peuvent être confondus au sein du même système. En pratique, aucune distinction n’est en générale faite entre ces deux catégories. Lorsque l’incertitude de certains paramètres d’entrée est identifiée, un modèle probabiliste de celui-ci est construit.
Cependant, il est important de distinguer le banc d’expérimentation réalisé en phase de conception et le comportement d’un système réel existant. Par exemple, pour un système électromagnétique simple comme un faisceau de câbles, les données expérimentales disponibles à partir des mesures sont souvent suffisantes pour identifier l’aléa du paramètre du modèle. Par contre, lorsque l’on s’intéresse au système réel, qui est beaucoup plus complexe, la modélisation numérique peut être difficile. Il peut aussi arriver que pour un système complexe, peu de données soient disponibles. Dans ce cas et en vue d’assurer le bon fonctionnement du système étudié, un avis d’expert ou des informations peuvent être intégrées aux données expérimentales dans un processus d’actualisation des modèles numériques (voir section 3.2.2).

Modéliser une variable aléatoire à partir d’un avis d’expert

Modéliser le contenu probabiliste d’un paramètre peut être difficile lorsqu’aucune ou peu d’information sont disponibles. Le modèle peut être choisi par un avis d’expert. Dans ce cas, des informations disponibles à partir d’expertises ou d’études permettent de compléter des données objectives.
Le principe de maximum d’entropie (PME) [2] permet de déterminer la loi de probabilité d’un paramètre donné à partir d’une information subjective sur ce paramètre sans faire d’hypothèses supplémentaires. Le principe est le suivant : pour une variable aléatoire continue
X �→ DX R, la densité de probabilité fX caractérisant le mieux l’information connue est celle qui maximise l’entropie H au sens de Shannon : H = – �DX fX(x)log fX(x)dx (2.1)
L’objectif du PME est de maximiser H en s’appuyant sur des informations disponibles pour X (e.g. bornes, moments statistiques, etc.). Ces informations s’écrivent sous forme de contraintes : E[cj(X)] = ηj, j {1, . . . ,n} (2.2) cj est la fonction pour laquelle ηj est un moment d’ordre j, et en ajoutant la propriété d’une densité de probabilité : DX fX(x)dx = 1 (2.3) vraie quelle que soit la loi support de X. La densité de probabilité fX qui maximise l’entropie est obtenue en résolvant le problème 2.1 sous les contraintes 2.2 et 2.3.

Modéliser une variable aléatoire à partir d’observations

La statistique est l’ensemble des outils mathématiques permettant de déterminer les caractéristiques d’un ensemble de données. La statistique comprend [3] :
la collecte des données ;
le traitement des données collectées, aussi appelé statistique descriptive ;
la modélisation statistique des données, aussi appelée inférence statistique, qui est basée sur la théorie des sondages et la statistique mathématique.
La modélisation statistique des données est une description probabiliste du mécanisme qui a généré les observations. L’approche statistique est une approche d’inversion permettant de remonter des effets (les observations) aux causes (le modèle probabiliste générateur). En pratique, on dispose en général d’un échantillon X = {x(1), . . . ,x(n)} dont les points sont supposés être des réalisations de variables aléatoires Xk, k = 1, . . . ,n indépendantes et identiquement distribuées (i.i.d.). On cherche alors à déterminer la loi de probabilité commune à ces variables. Il est possible de répondre à cette question par l’intermédiaire de différentes méthodes, regroupées en deux catégories : les méthodes statistiques paramétriques ou les méthodes statistiques non paramétriques. La modélisation statistique dans un contexte paramétrique identifie des paramètres de la loi de probabilité de X à partir d’un échantillon. Les principales étapes à la mise en oeuvre d’une telle démarche sont :
1. les outils des statistiques descriptives permettent de décrire un ensemble relativement important de données. Par exemple, l’espérance et l’écart-type sont calculés et des outils de visualisation tels que la boîte à moustaches et les histogrammes sont utilisés ;
2. une ou plusieurs familles de lois paramétriques fX(x; θ) (e.g. Gaussienne, Weibull, etc.) susceptibles de modéliser l’échantillon ;
3. les paramètres regroupés dans le vecteur θ, vecteur des paramètres (espérance, écarttype… par exemple) sont estimés à partir de la méthode des moments (voir annexe A.1), du principe de maximum de vraissemblance (voir annexe A.2) ou d’une technique d’inférence bayésienne (voir annexe B).
D’autre part, la statistique non paramétrique, quant à elle, est l’ensemble des méthodes statistiques permettant d’extraire de l’information pertinente à partir des données, sans faire d’hypothèse que la loi de probabilité commune à ces observations appartienne à une famille paramétrée connue. Dans ce cas, les études statistiques ne se font plus sur les paramètres de lois de probabilité θ. Une méthode non paramétrique souvent utilisée est l’estimation par noyau qui permet d’estimer la fonction de densité de probabilité d’une variable aléatoire en se basant sur un échantillon statistique [4].
Dans un contexte de statistique paramétrique ou non paramétrique, l’identification d’un modèle nécessite d’appliquer des tests statistiques pour vérifier et valider les hypothèses a posteriori.

Analyse et propagation d’incertitudes

L’analyse de l’effet des incertitudes des variables d’entrée sur la sortie d’un modèle, peut être illustrée par le schéma général représenté sur la figure 2.5 [4] :
l’étape A consiste en la finition du modèle numérique utilisé pour représenter le système physique étudié, auquel on attribue éventuellement un critère de défaillance. Dans le cas d’un système complexe, il est nécessaire d’identifier les entrées et sorties de chaque sous-modèle utilisé. Cette étape correspond à une analyse déterministe classique ;
l’étape B correspond à la quantification des sources d’incertitude en les modélisant dans un contexte probabiliste (incertitudes portant sur la longueur, la distance entre câbles par exemple). Cela se traduit par une identification des paramètres d’entrée du modèle numérique qui sont considérés comme incertains. On adopte dans ce manuscrit une description probabiliste des paramètres incertains, sous forme de variables ou vecteurs aléatoires ;
l’étape C correspond à la propagation des incertitudes affectant les paramètres d’entrée à travers le modèle numérique. Il s’agit d’évaluer l’aléa de la réponse du système vis-à-vis du critère défini à l’étape A;
l’étape C’ permet de quantifier l’impact relatif des variables aléatoires en entrée du modèle sur l’aléa de la réponse. Il s’agit d’une hiérarchisation des variables aléatoires d’entrée et de l’influence de celles-ci sur la réponse aléatoire du système, appelée analyse de sensibilité.

Actualisation bayésienne des paramètres d’entrée

Introduction

Dans la section précédente, l’analyse de sensibilité globale permet de quantifier l’impact de la variabilité d’une variable d’entrée sur la réponse de la fonction d’intérêt f. Cependant, la méthode proposée n’apporte aucune information supplémentaire sur la distribution des paramètres d’entrée du modèle. Une mise à jour de la description probabiliste des paramètres d’entrée peut être très intéressante. En effet, le modèle probabiliste établi en phase de conception présente souvent des limites quand on cherche à représenter l’aléa de la réponse d’un système réel. Si l’incertitude qui repose sur un paramètre d’entrée est trop grande à cause du manque de connaissance de ce paramètre, il arrive souvent d’observer une importante variabilité de la réponse du modèle. Dans ce contexte, la prise de décision devient alors difficile.
Pour pallier le manque d’information sur les paramètres d’entrée du modèle, différentes techniques ont été proposées, en particulier en dynamique des structures. Le problème de l’identification (dans un contexte bayésien) de la meilleure valeur du paramètre d’entrée a été introduit afin de contrôler l’état des structures à partir de données de surveillance. L’objet de ces études était de déduire l’évolution de la rigidité en raison des dégâts, e.g. [45], [46].
Un procédé bayésien pour actualiser la densité de probabilité jointe des paramètres d’entrée du modèle est maintenant présenté.

Énoncé du problème

Supposons que le modèle mathématique M(x,t) représente l’évolution dans le temps de la réponse y(t) d’un système, à valeurs dans RN, dépendant de paramètres regroupés dans un vecteur x, à valeurs dans RM. Un vecteur aléatoire X = {X1,,XM} modélise le manque d’information sur les paramètres d’entrée par l’intermédiaire d’une loi de probabilité pX dé- terminée en phase de conception. La réponse du modèle s’écrit comme un vecteur aléatoire Y : Y (t) = M(X,t). (3.54)
Il convient de souligner que la série des vecteurs {Y (t), t [0, T]} est un processus aléatoire, mais pour une réalisation x du vecteur X des paramètres d’entrée, l’évolution t �→ (Y (t)X = x) est purement déterministe.
Soit y˜(t) la valeur réelle de la réponse du système considéré. Dans le cas où le modèle est « parfait » et que la réalisation x˜ des paramètres d’entrée est connue, on peut écrire : y˜(t) = M(x˜,t). (3.55)
Supposons que l’on dispose de mesures expérimentales Y = {y(1),,y(K)}, correspondant à la réponse du système aux différents instants {t(1),, t(K)}. Les mesures expérimentales sont en général différentes des prédictions établies par le modèle, on suppose donc qu’il existe une réalisation e(k) d’une variable aléatoire E, considérée ici comme erreur de modèle/mesure, vérifiant : y(k) = Mx˜,t(k)+ e(k). (3.56)
Il est possible de décomposer l’erreur de modèle/mesure E qui est considérée comme étant aléatoire, en E = Emes + Emod Emes est l’erreur commise lors de mesures expérimentales. L’erreur de modèle Emod est inconnue puisqu’elle n’est pas maîtrisée. En pratique, cette erreur est cependant calibrée à partir d’avis d’experts, en supposant par exemple que Emod N(0,CEmod).

Méthodes pour l’analyse de fiabilité

En raison du manque de connaissance des valeurs prises par certains paramètres d’entrée d’un ensemble d’équations, l’analyste est contraint d’utiliser une modélisation statistique par l’intermédiaire de variables aléatoires décrivant l’information disponible sur la distribution des paramètres d’entrée. Ainsi, la réponse d’un modèle numérique (i.e. représentant un phénomène physique) devient alors incertaine. Le but de l’analyse de fiabilité consiste à déterminer la probabilité de défaillance d’un système et à fournir une hiérarchisation des paramètres d’entrée (analyse de sensibilité). Ceci est basé sur la définition d’une fonction d’état-limite, qui est maintenant introduite [13].

Fonction d’état-limite

Soit un vecteur aléatoire X de taille M (contenant M variables aléatoires) décrivant les incertitudes identifiées sur les entrées du modèle. L’évaluation de la fiabilité d’un système repose sur la fonction d’état-limite g dépendant du vecteur aléatoire d’entrée X finie par : g RM �→  X �→ yS M(X), (4.1)
M est le modèle de simulation numérique utilisé pour représenter le phénomène d’intérêt et yS est un seuil déterminé. La fonction d’état-limite g est formulée de telle sorte que :
1. Df = {x; g(x) 0} finit le domaine de défaillance du système ;
2. Ds = {x; g(x) > 0} finit le domaine de sûreté ;
3. D = {x; g(x) = 0} est la surface d’état-limite.
En notant par fX la fonction de densité de probabilité (pdf) du vecteur aléatoire X, la probabilité de défaillance Pf d’un système s’écrit alors :
Pf = P(g(x) 0) = Df fX(x)dx. (4.2)
En général, l’intégrale définie en 4.2 doit être résolue en employant des méthodes numériques telles que la simulation de Monte Carlo (MC) dont la convergence est lente. Cela nécessite alors de nombreuses évaluations de la fonction d’état-limite g, et par conséquent, du modèle numérique M. Pour contourner cette difficulté, des méthodes d’approximation pour l’analyse de fiabilité [11, 12] ont été développées pour estimer la probabilité de défaillance à un coût de calcul relativement faible par rapport à la méthode de simulation par MC. Ces méthodes sont basées sur l’identification du point de conception qui est maintenant présentée.

Transformation de l’espace des variables d’entrée et définition du point de conception

Le principe des méthodes fiabilistes est basé sur la transformation du problème décrit dans l’espace des variables physiques, vers l’espace des variables aléatoires gaussiennes centrées réduites indépendantes.
Pour identifier le point de conception, la première étape consiste à réécrire l’intégrale 4.2 dans l’espace gaussien standard en ayant recours à une transformation isoprobabiliste T X �→ ξ, où ξ est le vecteur aléatoire des variables aléatoires gaussiennes centrées réduites. Différentes transformations (e.g. transformation de Rosenblatt ou Nataf [11, 12]) ont été proposées pour la transformation probabiliste des variables aléatoires d’entrée physiques. La transformation de Rosenblatt est appliquée lorsque la distribution de probabilité jointe est connue (information riche mais rarement disponible) tandis que la transformation de Nataf nécessite seulement la connaissance des distributions marginales des variables d’entrée et leurs corrélations (une information pauvre mais généralement disponible). Une fois que la transformation de Rosenblatt ou Nataf est appliquée, les variables aléatoires gaussiennes centrées réduites sont ensuite transformées en des variables aléatoires indépendantes par des techniques de décorrélation [12]. Ainsi, l’équation 4.2 est reformulée dans l’espace des variables aléatoires gaussiennes centrées réduites indépendantes comme suit : Pf = g(T 1(ξ))0 φM(ξ)dξ = G(ξ)0 φM(ξ)dξ1 . . . dξM, (4.3)
G(ξ) = g(T 1(ξ)) et φM est la pdf multi-gaussienne standard. Cette pdf est maximale à l’origine et décroît exponentiellement avec le terme ξ2. Pour cette raison, les points ayant la contribution la plus significative dans l’intégrale 4.3 sont ceux du domaine de défaillance qui sont les plus proches de l’origine de l’espace gaussien standard.
La seconde étape de la méthode est d’identifier le point de conception ξ(i.e. le point de défaillance le plus probable), qui est le point de défaillance du domaine le plus proche de l’origine dans l’espace gaussien standard. Ce point est la solution du problème d’optimisation sous contraintes : P = ξ= Arg min ξRM �∥ξ2 G(ξ) 0. (4.4)
Différents algorithmes peuvent être utilisés pour résoudre le problème d’optimisation 4.4 tels que l’algorithme d’Hasofer-Lind-Rackwitz-Fiessler (HLRF) que nous présentons maintenant.

Algorithme de Hasofer-Lind-Rackwitz-Fiessler (HLRF)

L’algorithme de Hasofer-Lind-Rackwitz-Fiessler (HLRF) [14, 15] est un algorithme d’optimisation du premier ordre pour déterminer le point de conception. Il est très efficace même si sa convergence n’est pas assurée dans tous les cas. Dans cette section, nous présentons le principe de l’algorithme HLRF illustré sur la figure 4.1.
Pour identifier le point de conception ξ, nous nous plaçons en un point ξ(k), point de départ à l’itération (k). Ce point ne vérifie pas forcément la contrainte, i.e. G(ξ) peut être non nulle. Le développement en série de Taylor au voisinage de ce point est :
G(ξ) = G(ξ(k)) + G(ξ(k))T (ξ ξ(k)) + O2.
Cela donne l’équation de l’hyperplan tangent à G(ξ) en ξ(k) : G(ξ(k))T ξ + b = 0.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction
I Traitement des incertitudes en CEM : éléments de contexte 
2 Contexte et motivations
2.1 La CEM .
2.1.1 Définition de la CEM .
2.1.2 La conception en CEM .
2.1.3 Impact des incertitudes en CEM .
2.2 Activités du CEA .
2.3 Méthodologie globale du traitement d’incertitudes .
2.3.1 Types d’incertitude .
2.3.2 Modéliser une variable aléatoire à partir d’un avis d’expert
2.3.3 Modéliser une variable aléatoire à partir d’observations .
2.3.4 Analyse et propagation d’incertitudes .
2.4 Conclusion .
Références .
3 Etat de l’art
3.1 Outils statistiques traitant de l’aléa pour le calcul des interférences électromagnétiques
3.1.1 Introduction .
3.1.2 Méthode de simulation de Monte Carlo (MC) .
3.1.3 Collocation stochastique (CS) .
3.1.3.1 Introduction .
3.1.3.2 Principe de la méthode de CS .
3.1.4 Chaos polynomial (CP) .
3.1.4.1 Développement par CP de la réponse d’un modèle .
3.1.4.1.a Exemple de construction de base du CP
3.1.4.2 Calcul des coefficients de la base du CP .
3.1.4.2.a Approches par projection .
3.1.4.2.b Approches par régression .
3.1.4.3 Post-traitements des coefficients de la base du CP .
3.1.5 Krigeage .
3.1.6 Quelques applications traitant des incertitudes en CEM .
3.2 Outils statistiques traitant de l’aléa en sciences de l’ingénieur
3.2.1 Analyse de sensibilité globale par les indices de Sobol .
3.2.2 Actualisation bayésienne des paramètres d’entrée .
3.2.2.1 Introduction .
3.2.2.2 Énoncé du problème .
3.2.2.3 Méthodes d’actualisation par simulation de MC .
3.2.2.3.a Chaînes de Markov .
i3.2.2.3.b Algorithmes de Metropolis-Hastings (MH)
3.2.2.3.c Actualisation de modèles par résolution du problème inverse
3.2.2.3.d Conclusion .
3.2.3 Méthodes de fiabilité .
3.2.4 Estimation de quantile par stratification contrôlée (SC) .
3.3 Positionnement de la thèse .
Références .
II Analyse de risque d’interférence électromagnétique 
4 Probabilité de défaillance et analyse de sensibilité par méthodes de fiabilité appliquées au calcul d’interférences électromagnétiques extrêmes
4.1 Introduction .
4.2 Méthodes pour l’analyse de fiabilité .
4.2.1 Fonction d’état-limite .
4.2.2 Transformation de l’espace des variables d’entrée et définition du point de conception .
4.2.3 Algorithme de Hasofer-Lind-Rackwitz-Fiessler (HLRF) .
4.2.4 Estimation de la probabilité de défaillance à partir du point de conception
4.2.4.1 Principe des approximations FORM et SORM .
4.2.4.2 Importance sampling (IS) .
4.2.5 Analyse de sensibilité locale .
4.2.5.1 Sensibilité de l’indice de fiabilité par rapport aux variables
4.2.5.2 Sensibilité de l’indice de fiabilité aux paramètres des distributions de probabilité
4.2.6 Estimation de la probabilité de défaillance en grandes dimensions : subset simulation (SS) .
4.3 Estimation et analyse de sensibilité de la probabilité de défaillance dans un problème de diaphonie .
4.3.1 Analyse préliminaire des performances de la méthode FORM .
4.3.1.1 Illustration de la méthode FORM sur un cas d’étude simplifié
4.3.1.2 Illustration de la méthode FORM sur le cas d’étude initial
4.3.2 Susceptibilité d’un équipement électronique connecté à l’extrémité du câble n○2 .
4.3.2.1 Intégration de la défaillance d’un équipement électronique dans le cas d’étude .
4.3.2.2 Estimation de la probabilité de défaillance d’un système CEM 64
4.3.2.3 Sensibilité de la probabilité de défaillance Pf,sys du système CEM .
4.4 Conclusion .
Références .
5 La méthode de stratification contrôlée appliquée à la détermination d’interférences éléctromagnétiques extrêmes avec des variables d’entrée incertaines
5.1 Introduction .
5.2 Stratification contrôlée (SC) .
5.2.1 Présentation de la méthode de SC .
5.2.1.1 Estimation empirique (EE) de quantile .
5.2.1.2 Estimation de quantile par variable de contrôle (VC)
5.2.1.3 Estimation de quantile par SC .
5.2.1.4 Estimation de quantile par stratification contrôlée adaptative (SCA) .
5.2.2 Discussion autour du choix d’un bon modèle simple .
5.3 Cas d’étude .
5.4 Application au cas d’une simulation directe des équations de Maxwell avec un modèle de ligne de transmission comme modèle simple pour la méthode de SC
5.4.1 Estimation de quantile extrême de courant .
5.4.1.1 Estimation de la corrélation entre les modèles simple et rigoureux
5.4.1.2 Stratégies de répartition des réalisations pour l’estimation de quantile .
5.4.1.2.a Répartition uniforme .
5.4.1.2.b Importance de la répartition .
5.4.1.2.c Approche par SCA .
5.5 Application au cas d’une simulation « full-wave » avec une autre simulation « full-wave » utilisant un maillage grossier comme modèle simple pour la technique de SC
5.5.1 Estimation de quantile extrême de courant .
5.5.1.1 Evaluation de la corrélation entre les modèles simple et rigoureux
5.5.1.2 Estimation de quantile par SC et SCA .
5.5.1.3 Discussion autour des performances des deux modèles simples
5.5.1.4 Distribution de valeurs extrêmes .
5.6 Conclusion .
Références .
III Cas d’application 
6 Traitement d’incertitudes sur un problème de couplage onde EM-câble de transport d’électricité aérien
6.1 Introduction .
6.2 Présentation du problème .
6.3 Analyse de sensibilité globale et application des méthodes fiabilistes sur le problème de couplage onde EM-câble
6.3.1 Sol rocailleux .
6.3.1.1 Analyse de sensibilité globale .
6.3.1.2 Estimation d’une probabilité de défaillance Pf .
6.3.1.2.a Estimation de Pf sur le domaine total de variation de l’angle d’azimut de l’onde EM
6.3.1.2.b Estimation de Pf par quadrant d’angle d’azimut de l’onde EM .
6.3.2 Sol en terre .
6.3.2.1 Analyse de sensibilité globale .
6.3.2.2 Estimation d’une probabilité de défaillance Pf par quadrant d’angle d’azimut de l’onde EM .
6.3.3 Conclusion sur les méthodes fiabilistes .
6.4 Application de la méthode de stratification contrôlée (SC) au problème de couplage onde EM câble
6.4.1 Introduction .
6.4.2 Présentation des modèles simple et rigoureux .
6.4.3 Sol rocailleux : estimation de quantile extrême de courant .
6.4.3.1 Estimation de la corrélation entre les modèles simple et rigoureux
6.4.3.2 Approche par SC .
6.4.4 Sol en terre : estimation de quantile extrême de courant .
6.4.4.1 Estimation de la corrélation entre les modèles simple et rigoureux
6.4.4.2 Estimation par SC .
6.4.5 Conclusion sur la méthode de SC .
6.5 Conclusion .
IV Bilan et perspectives
7 Conclusion générale et perspectives
7.1 Conclusion générale .
7.2 Perspectives .
Références .
Publications
Annexes 
A Inférence statistique classique 
A.1 Méthode des moments .
A.2 Méthode du maximum de vraisemblance .
B Inférence statistique bayésienne 
B.1 Exemple (Laplace, 1773 [1]) .
C Lois de probabilité usuelles 
C.1 Loi gaussienne .
C.2 Loi uniforme .
Références .

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *