Contrôle non destructif
Le contrôle non destructif (CND) est l’ensemble des techniques et procédés utilisables pour évaluer l’état d’une structure sans l’endommager pour une utilisation ultérieure. Les technologies et techniques employées sont diverses et variées. Certaines méthodes ont pour but de détecter les défauts, comme le ressuage et la magnétoscopie, et d’autres estimer les caractéristiques des défauts détectés dans la structure, comme la radiographie et les ultrasons (Champigny, 2005; Dumont-Fillon, 1996; Wanin, 2001). La radiographie et les ultrasons font partie des techniques d’investigation les plus connues et les plus utilisées que ce soit pour l’imagerie du corps humain ou l’examen de structures. Pour des pièces métalliques, les méthodes électromagnétiques, comme par exemple la magnétoscopie ou les courants de Foucault, sont aussi très largement répandues. Cependant, ces techniques s’utilisent également dans l’industrie que ce soit au moment de la fabrication de pièces afin de s’assurer de la qualité, ou durant la vie d’une pièce pour des questions de maintenance ou de sûreté. L’imagerie est une technique de CND permettant d’obtenir une cartographie précise en 2D ou 3D de la structure interne de l’objet. Elle permet d’obtenir des informations plus précises sur l’objet testé que l’analyse visuelle des signaux obtenus à l’aide d’une méthode d’inspection. L’imagerie médicale en est un exemple très courant et connu. Dans ce cas, la structure testée est biologique (os, organes, etc.).
Contrôle non destructif à Electricité de France (EDF)
Le contrôle non destructif à EDF est un outil important pour établir des stratégies de maintenance afin d’optimiser la production électrique tout en garantissant la sûreté des centrales nucléaires. EDF utilise différentes technologies selon les pièces à examiner. La radiographie est la technique la plus employée en centrale nucléaire, suivie des techniques ultrasonores. La radiographie est très complexe à utiliser pour des questions d’encombrement et surtout de radioprotection. Les ultrasons posent également un problème d’encombrement du procédé industriel pour des surfaces non planes et proches d’obstacles.
Les courants de Foucault (CF) sont également très utilisés pour les éléments métalliques tels que les tubes ou les plaques lorsque les méthodes précédentes ne sont pas applicables. En pratique, dans les centrales nucléaires, les méthodes par courants de Foucault sont surtout utilisées dans les tubes de générateur de vapeur. Dans ce cas, les CF permettent de prévenir voire de détecter d’éventuelles fuites entre le circuit primaire et le circuit secondaire. En plus de détecter les manques de matière, un autre objectif est d’identifier les éventuels dépôts de matière au niveau des tubes pouvant gêner la circulation des fluides. Pour acquérir les données, une sonde contenant un capteur courants de Foucault est tractée dans chaque tube et les signaux du capteur sont étudiés par un contrôleur afin de détecter des fuites, des fissures ou des dépôts sur le tube testé. Afin d’aider l’analyse des signaux, des données sont mesurées sur des maquettes contenant des défauts connus ou sont simulées à l’aide de code de calculs. Les données des maquettes ou simulées sont alors comparées avec les données réelles pour évaluer la nature du problème et sa gravité. Une fois les défauts et les dépôts détectés, il s’agit de les classer en terme de sévérité pour la structure. Si le défaut n’est pas dangereux, il est régulièrement surveillé afin de détecter d’éventuelles détériorations. Inversement, si le défaut est trop important, le tube défectueux peut être bouché. Cependant, de manière générale, l’analyse des signaux reste assez simple. En effet, compte tenu de la complexité des phénomènes physiques, il est difficile de visu de caractériser l’anomalie (dépôt ou manque de matière) et déterminer la gravité est encore plus difficile.
Tomographie par courants de Foucault à EDF
Afin d’appuyer et d’aider les experts dans l’évaluation des défauts, le recours à des méthodes de reconstruction tomographique par CF est envisagé. La reconstruction tomographique consiste à évaluer la distribution d’une grandeur d’intérêt à partir de données sur l’objet à reconstruire : c’est un problème inverse. Dans le cas de la tomographie CF, la conductivité est la grandeur d’intérêt utilisée car les données sont sensibles aux variations de conductivité. De plus une diminution de la conductivité indique un manque de matière. Pour représenter un défaut, on peut employer de manière équivalente la conductivité relative, ou contraste, plutôt que la conductivité elle-même. En effet, elle est plus significative car elle permet de quantifier la proportion de manque de matière pour chaque élément du domaine de calcul discrétisé. Pour résoudre ce problème, il existe de nombreuses méthodes comme les méthodes de type MGM/CSI ou de Newton-Kantorovich. La majorité d’entre elles ne sont pas applicables en l’état à un cadre industriel et restent limitées à des cas simulés ou à des géométries particulières. Pour le moment, l’étude de l’utilisation de la tomographie CF se limite à des plaques métalliques.
Les différents partenariats entre EDF et l’École Polytechnique de Montréal (EPM) effectués depuis 2001 ont débouché sur une méthode d’inversion de données CF. L’objectif de cette méthode est de cartographier la conductivité relative pour reconstruire des défauts débouchants dans des plaques métalliques (Dubost et al., 2006). Cette méthode est basée sur deux étapes. La première concerne l’identification d’un modèle direct linéaire paramétré par une réponse impulsionnelle à partir de données pour des défauts connus. La seconde concerne la reconstruction d’un défaut inconnu à partir de données et du modèle identifié. Ces étapes présentent des difficultés à cause de leur sous-détermination. En effet, il y a plus d’inconnues à estimer que d’équations à disposition. Afin de surmonter ces difficultés, ces étapes recourent à des techniques de régularisation. Celles-ci sont appliquées sur la réponse impulsionnelle estimée ainsi qu’au défaut à reconstruire. En effet, la réponse impulsionnelle est supposée continue et douce tandis que le défaut est considéré constant par morceaux. Au cours des différentes études, les efforts ont surtout été concentrés sur la seconde étape, l’étape d’inversion, et notamment sur la régularisation et la minimisation. Les reconstructions obtenues à l’aide de cette méthode présentent une ambiguïté entre la largeur et la profondeur du défaut reconstruit. Pour obtenir des résultats de reconstruction corrects, il est nécessaire de lever cette indétermination en fixant la largeur du défaut. La méthode est alors efficace à condition de fixer cette largeur, ce qui revient à se limiter à une classe de défauts. Elle montre ses limites lorsque le défaut recherché n’appartient pas à la classe choisie. La linéarité du modèle direct semble être en partie la cause de ces limites (Dubost and El-Guedri, 2008).
Méthodes d’inversion en tomographie de diffraction
Principes généraux
Quel que soit le domaine d’application (biomédical (Barrière et al., 2009), géophysique (Abubakar and Habashy, 2010; Chaturvedi and Plumb, 1995) ou contrôle non destructif (Dubost et al., 2006)), le principe de la tomographie de diffraction est le même : il s’agit d’émettre une onde électromagnétique et de mesurer l’interaction entre l’onde et le milieu inspecté. L’objectif est de cartographier une ou plusieurs grandeurs électromagnétiques selon l’application :
– biomédical : conductivité électrique σ et permittivité diélectrique ∈ (van den Berg and Abubakar, 2002) ;
– géophysique : conductivité électrique σ et permittivité diélectrique ∈ (Chaturvedi and Plumb, 1995) ;
– contrôle non destructif : conductivité électrique σ (Zorgati et al., 1992) voire perméabilité magnétique µ lorsque du matériau magnétique intervient (Monebhurrun et al., 1999; Skarlatos et al., 2007) dans les cas de corrosion.
Ces grandeurs doivent être représentatives d’un défaut et les données doivent y être sensibles pour être exploitables en inversion. Les problèmes de tomographie de diffraction sont connus pour être mal-posés (Devaney and Sherman, 1982). Le caractère mal-posé peut être amplifié selon le mode d’acquisition des données. En effet, des méthodes d’acquisition effectuant des mesures tout autour de l’objet (comme la tomographie par micro-ondes (TMO) (Barrière et al., 2008; Carfantan, 1996)) recueillent plus d’informations que les méthodes ne mesurant que le champ électromagnétique réfléchi par l’objet (comme en CF (Zorgati et al., 1991)), perdant ainsi l’information contenue dans le champ transmis. De plus, selon les contrastes en jeu et les fréquences des ondes émises, les problèmes de tomographie de diffraction peuvent être plus ou moins non-linéaires, compliquant davantage la résolution du problème.
Les méthodes de reconstruction utilisées pour la tomographie de diffraction sont nombreuses et variées. Les plus faciles à mettre en place sont basées sur l’apprentissage comme les réseaux de neurones. Les réseaux de neurones (Rekanos et al., 1997; Song and Shin, 2000; Yusa et al., 2002) nécessitent d’avoir des données pour des défauts connus. Le réseau de neurones apprend à reconnaître des défauts en utilisant les défauts et les données qu’il connaît. Cette méthode est très facile à utiliser mais fonctionne comme une boîte noire. De plus, son efficacité dépend fortement de l’ensemble d’apprentissage, ce qui rend la méthode peu robuste et très peu efficace lorsque le défaut à reconstruire a des caractéristiques différentes des défauts utilisés pour l’ensemble d’apprentissage. Ceci limite l’utilisation de cette méthode.
Un modèle direct peut être employé afin d’obtenir une méthode de reconstruction plus robuste et surtout éviter l’aspect « boîte noire » des réseaux de neurones. Cependant les équations électromagnétiques et la modélisation sont difficiles à manipuler et peuvent nécessiter beaucoup d’expérience et de moyens. C’est pourquoi, on peut préférer identifier un modèle de formation de données linéaire (comme la méthode EDF-EPM (Dubost et al., 2006)) ou paramétrique (Davoust et al., 2006). L’inconvénient de ce type de méthodes est une fois encore la sensibilité des résultats d’inversion à l’ensemble utilisé pour identifier les modèles (Dubost and El-Guedri, 2008). Pour obtenir une méthode plus robuste et résoudre ce type de problèmes inverses, une approche classique est d’utiliser un modèle direct basé sur la résolution d’équations physiques (Idier, 2008).
|
Table des matières
Introduction générale
I Inversion en tomographie de diffraction
I.1 Principe général de l’inversion
I.1.1 Problème inverse
I.1.2 Problème mal-posé
I.1.3 Approche bayésienne
I.1.4 Choix de la régularisation
I.2 Méthodes d’inversion en tomographie de diffraction
I.2.1 Principes généraux
I.2.2 Modélisation classique en inversion CF
I.2.3 Méthode EDF-EPM
I.2.4 Contraintes des équations de couplage
I.2.5 Méthodes de type MGM/CSI
I.3 Conclusion
I Modèle direct
Introduction
II Equations électromagnétiques pour les courants de Foucault
II.1 Généralités en électromagnétisme
II.1.1 Equations de Maxwell
II.1.2 Changement de milieu
II.1.3 Equation d’Helmholtz
II.2 Modèle linéaire utilisé dans la méthode EDF-EPM
II.2.1 Principe
II.2.2 Simulation
II.2.3 Conclusion
II.3 Méthodes intégrales
II.3.1 Principe
II.3.2 Discrétisation par méthode des moments
II.3.3 Conclusion sur les méthodes intégrales
II.4 Variation d’impédance
II.5 Conclusion
III Modèle différences finies
III.1 Principe des différences finies
III.2 Courants de Foucault par méthode des différences finies
III.3 Conditions aux limites
III.4 Variation d’impédance par différences finies
III.5 Simulation
III.5.1 Calcul du champ électrique incident
III.5.2 Simulation des données CF
III.5.3 Conclusion de la comparaison
III.6 Conclusion
IV Modèle éléments finis
IV.1 Courants de Foucault par la méthode éléments finis en 2D
IV.2 Variation d’impédance par EF
IV.3 Simulation
IV.4 Conclusion
Conclusion
II Inversion des données CF
V Critère
V.1 Notations
V.2 Problème sans contraintes de couplage
V.2.1 Critère XF-MGM
V.2.2 Critère XF-CSI
V.2.3 Critère XF-Basique
V.2.4 Liens entre les critères
V.3 Problème sous contraintes de couplage
V.4 Approche bayésienne
V.4.1 Champ de Markov
V.4.2 Energie minimale
V.4.3 Contraintes de bornes
V.5 Conclusion
VI Algorithmes de minimisation
VI.1 Généralités sur la minimisation
VI.2 Minimisation sans contrainte : XF-Basique/MGM/CSI
VI.2.1 Principe
VI.2.2 Minimisation par rapport à e
VI.2.3 Minimisation par rapport à x
VI.2.4 Choix de λ
VI.2.5 Initialisation de l’algorithme
VI.2.6 Critère d’arrêt
VI.3 Minimisation sous contraintes : Lagrangien augmenté
VI.3.1 Principe
VI.3.2 Adaptation à l’inversion CF
VI.3.3 Minimisation par rapport à e
VI.3.4 Minimisation par rapport à x
VI.3.5 Critère d’arrêt
VI.3.6 Réglage de paramètres
VI.4 Comparaison entre les critères et algorithmes
VI.4.1 Mémoire
VI.4.2 Coût de calcul
VI.4.3 Commentaires
VI.5 Conclusion
III Résultats de reconstruction
VII Méthodologie pour les reconstructions
VII.1 Capteur
VII.2 Protocole pour les reconstructions
VII.2.1 Méthode EDF-EPM
VII.2.2 Modèle DF
VII.2.3 Modèle EF
VII.3 Défauts simulés
VII.4 Mesure d’erreur
VII.5 Conclusion
VIII Reconstructions sans contraintes sur l’équation de couplage
VIII.1 Méthode EDF-EPM
VIII.2 Modèle DF
VIII.2.1 Régularisation par fonction potentiel
VIII.2.2 Contraintes de bornes
VIII.2.3 Conclusion
VIII.3 Modèle EF
VIII.3.1 Champ de Markov
VIII.3.2 Etude de la méthode XF-Basique pour le défaut de 1 mm de profondeur
VIII.3.3 Etude pour différents défauts
VIII.3.4 Comparaison des méthodes développées
VIII.3.5 Impact de λ sur les reconstructions
VIII.4 Conclusion
IX Reconstructions par méthodes sous contraintes de couplage
IX.1 Introduction du Lagrangien augmenté
IX.1.1 Résultats
IX.1.2 Initialisation
IX.2 Comparaisons entre EF-Basique et EF-AL-Basique
IX.2.1 Défaut de 2 mm
IX.2.2 Autres défauts
IX.3 Introduction des sources de contraste
IX.3.1 Résultats
IX.3.2 Initialisation
IX.3.3 Comparaison avec les autres méthodes
IX.4 Conclusion
Conclusion générale
Annexes