Mise en oeuvre des algorithmes de reconstruction sur diff´erents types d’acquisitions multi- éléments 

Télécharger le fichier pdf d’un mémoire de fin d’études

Gestion de fenêtres

Le composant du système permettant à l’utilisateur d’interagir avec les fenêtres et de les manipuler est appelé le gestionnaire de fenêtres. Nous suivons ici la ter-minologie de Myers [85] qui parle de “système de fenêtrage” pour les couches de bas niveau (rendu des fenêtres et capture des entrées) et utilise “gestionnaire de fenêtres” pour la partie qui se charge de l’interaction avec l’utilisateur : décoration des fenêtres, placement des fenêtres, opération de déplacement, iconification. . .
Le modèle de gestionnaire de fenêtres le plus répandu est celui dit des fenêtres recouvrantes. Dans ce modèle, les fenêtres sont disposées dans un espace en deux dimensions mais possèdent également une profondeur, c’est pourquoi certains qua-lifient parfois ce type d’espace de 2D 1/2 [23]. Les fenêtres peuvent donc se che-vaucher, une fenêtre plus “haute” que les autres masque tout ou partie de celles qui se trouvent en dessous.
Cependant ce modèle de fenêtrage (ou de partage des ressources écran) a mon-tré ses limites et surtout son incapacité à passer à l’échelle. On pourrait intituler ce mode de fonctionnement d’allocation manuelle d’espace d’affichage. Comme toute opération manuelle, si le nombre d’objets à allouer devient trop grand, l’utilisateur devient vite surchargé par la tâche d’allocation.
La recherche en IHM et l’industrie aussi bien que des développeurs indépen-dants enthousiastes ont tenté depuis plusieurs décennies de pallier à ces problèmes. Ces solutions vont de la conception de nouvelles interactions pour faciliter certains aspects de la gestion des fenêtres recouvrantes (typiquement le changement de fe-nêtre) à la conception de tout autre moyen de partager l’espace d’affichage.

Allocation de l’Espace d’Affichage

Un des problèmes majeurs de la gestion de fenêtres est l’allocation de l’espace d’affichage en deux dimensions, constitué par le (ou les) écran(s), aux différents contenus que l’utilisateur veut visualiser.
Alternatives au Chevauchement de Fenêtres
S’intéressant aux problèmes introduits par le recouvrement des fenêtres qui induit des zones invisibles pour l’utilisateur, une idée simple fait son apparition rapidement : ne plus permettre aux fenêtres de se chevaucher. Ce type de gestion-naires de fenêtres, par pavage de l’écran, a fait l’objet d’une étude dès 1986 [18] en le comparant au système de fenêtrage par chevauchement déjà considéré comme le fonctionnement prédominant. L’avantage de ce mode d’opération est de décharger l’utilisateur de nombreuses opérations de gestion des fenêtres par une gestion par-tiellement automatique de l’espace d’affichage mais au détriment du contrôle de l’utilisateur sur son espace d’affichage.
Afin de maximiser l’espace d’affichage utilisé, ce type de gestionnaire de fe-nêtres adopte souvent un comportement de remplissage : les fenêtres occupent le plus d’espace possible. Les premières versions du Xerox Star possédaient un ges-tionnaire de fenêtre qui utilisait un algorithme de placement des fenêtres conçu pour paver la surface de l’écran lorsque cela était possible.
Parmi les systèmes les plus populaires utilisés actuellement on peut citer Xmo-nad [109], Ion 2 et Ratpoison 3. Ces gestionnaires de fenêtres ont été conçus pour une utilisation sur des ordinateurs portables et une interaction au clavier et per-mettent plus ou moins facilement et plus ou moins interactivement de modifier la façon dont le système dispose et redimensionne les fenêtres. Par exemple, Xmonad dispose d’un grand nombre d’agencements pensés pour des scénarios d’utilisation particuliers : Gimp, fenêtres de messagerie instantanée. . .
Elastic Windows [65] fait figure d’exception au sein des gestionnaires de fe-nêtres par pavage. Ce gestionnaire propose en effet, en plus des caractéristiques exposées ci-dessus, une gestion groupée et hiérarchique des fenêtres. Plusieurs fe-nêtres peuvent être regroupées au sein d’une nouvelle fenêtre, elle-même pouvant être groupée avec d’autres fenêtres. Ces regroupements créent une hiérarchie de fenêtres sur laquelle il est possible d’interagir à tous les niveaux. L’allocation de l’espace d’affichage est gérée par le système sous forme de TreeMap [13] permet-tant d’utiliser la totalité de la surface d’affichage. Pour chaque groupe de fenêtres, ces dernières sont pavées dans leur fenêtre englobante de manière à occuper en-tièrement l’espace disponible. L’écran constitue la racine de cette hiérarchie (Fi-gure 1.3).
Scheme Constraints Window Manager (SCWM) [8] est un autre exemple de gestionnaire de fenêtres qui automatise la gestion de l’espace d’affichage. SCWM propose d’augmenter un gestionnaire classique, permettant le chevauchement de fenêtres, avec des contraintes entre fenêtres définies par l’utilisateur et gérées par un algorithme de résolution de contraintes [7]. Cependant les interactions pour spécifier les contraintes sont peu naturelles et reposent majoritairement sur des boites de dialogues de style “formulaire”.

La Tâche au Cœur de la Gestion de Fenêtres

Une autre piste largement explorée pour simplifier la gestion de fenêtres en réduisant le nombre d’entités à gérer simultanément tout en conservant la simplicité et la versatilité des gestionnaires de fenêtres classiques est d’introduire la notion de tâche ou d’activité. Cette notion, parfois définie de façon floue, permet de réduire le nombre de fenêtres en les groupant par utilisation et en n’affichant à un moment donné que les fenêtres utiles. En quelque sorte, la prise en compte des tâches ou des activités permet de diviser pour mieux régner.
L’incarnation la plus simple de ce principe se trouve dans les Espaces de Tra-vail Virtuels et fut introduit par Rooms [51] en 1986 : Chaque pièce (“room”) contient ses propres fenêtres. Une seule pièce est affichée à un instant donné, et l’on peut passer d’une pièce à l’autre par des portes. Dans certains systèmes, il est possible de définir des fenêtres qui sont affichées dans toutes les pièces, comme par exemple une horloge ou une application de messagerie. Cette solution, relati-vement simple, a rapidement été adoptée par nombre de gestionnaires de fenêtre destinés au système de fenêtrage X Window. Elle n’a fait son apparition que récem-ment en standard sous Mac OS X avec Spaces et est toujours absente (par défaut) de Microsoft Windows.
Une autre forme de groupement des fenêtres consiste à les imbriquer. Ainsi, dans d’anciennes versions de Windows, une application qui gére plusieurs docu-ments consiste en un fenêtre représentant l’application, elle-même contenant une fenêtre pour chaque document. En pratique, les utilisateurs ont tendance à maximi-ser la fenêtre de l’application, reproduisant ainsi un modèle proche de Rooms mais contraint par le fait que seuls les documents d’une même application peuvent être affichés ensemble.
D’autres systèmes ont par la suite étendu et amélioré le concept de tâche. Parmi les plus marquants, se trouvent des gestionnaires de fenêtres comme Task Gal-lery [98] qui introduit la 3ème dimension (voir la Figure 1.4). D’autres implémen-tations raffinent le concept de tâche et en améliore la prise en considération dans le gestionnaire de fenêtres. Parmi eux se trouve WindowScape [116] qui propose de prendre des “instantanés” de l’organisation de l’espace d’affichage à un moment donné afin de pouvoir y revenir ultérieurement par un simple clic.
Pour sa part, Scalable Fabric [97] propose d’utiliser un système de “focus + contexte” pour gérer les tâches de l’utilisateur. Dans la partie centrale de l’écran, les fenêtres se comportent normalement. Mais lorsque l’utilisateur déplace une fenêtre vers un bord de l’écran, celle-ci réduit sa taille pour ne plus occuper qu’une petite partie de l’espace d’affichage. Lors de leur déplacement sur les bords de l’écran il est également possible d’approcher une fenêtre soit d’une autre fenêtre pour créer un groupe, soit d’un groupe pour l’y ajouter. Nommer un groupe de fenêtres crée une tâche. Cliquer sur une fenêtre ou un groupe de fenêtres a pour effet de replacer tous les éléments à leur place antérieure.
Enfin, Elastic Windows [65] permet de regrouper les fenêtres en tâches elles-mêmes peuvant être regroupées, créant ainsi une hérarchie de fenêtres. Il est pos-sible d’appliquer des opérations à n’importe lequel de niveau hérarchique. Ces propriétés alliées à l’organisation des fenêtres par pavage 1.3 d’Elastic Windows permettent une gestion aisée des tâches. Par exemple, un programmeur pourrait organiser son espace en fonction des projets sur lesquels il travail, chaque projet se subdivisant en documentation et fichiers édités. Ainsi, le changement de projet deviens facile : paquer le projet courant puis dépaquer le projet suivant. De même lorsque l’utilisateur n’a pas besoin de la documentation, celle-ci peut rester paqué libérant de l’espace d’affichage pour l’édition des fichiers.

Contourner le Chevauchement

La possibilité de chevauchement des fenêtres est un avantage puisqu’elle per-met d’étendre virtuellement la surface d’affichage en rendant possible l’affichage de plus d’informations que ne le permettrait normalement l’écran. Cependant, elle entraîne une surcharge de manipulations pour l’utilisateur qui doit alors gérer ce recouvrement. Plusieurs tentatives ont été faites au cours du dernier quart de siècle pour résoudre le problème d’allocation par différentes techniques d’interaction semi-automatiques aidant l’utilisateur à gérer au mieux son espace d’affichage tout en permettant de garder cette possibilité de chevauchement.
Ishak et Feiner [62] (voir aussi [117]) proposent d’utiliser la transparence de façon contrôlée (uniquement sur des parties non importantes d’une fenêtre) pour visualiser le contenu, normalement caché de fenêtres recouvertes (partiellement ou complètement). Ils proposent également de pouvoir interagir avec le contenu ainsi découvert.
En améliorant une technique simple pour trouver l’emplacement idéal pour pla-cer un rectangle, sans recouvrement avec d’autres rectangles déjà placés [15], Bell et Feiner [14] proposent une représentation de l’espace d’affichage permettant de placer les fenêtres, qu’elles soient créées ou déplacées, à un emplacement empê-chant le recouvrement des fenêtres existantes. Cette technique permet de bénéficier de nombre des avantages des gestionnaires de fenêtres par pavage tout en conser-vant les avantages offerts par la possibilité de faire chevaucher les fenêtres. Dans le même ordre d’idée, Hutchings et Stasko [59] définissent deux nouvelles opéra-tions sur une (des) fenêtre(s) afin de faire “grandir” celle(s)-ci le plus possible sans qu’elle ne recouvre les autres fenêtres. La première opération agrandit simplement la fenêtre courante jusqu’à ce que ses bords ne buttent sur d’autres fenêtres. La se-conde, en plus d’agrandir la fenêtre courante, pousse également les autres fenêtres jusqu’à ce que l’ensemble des fenêtres occupe tout l’espace d’affichage disponible (l’écran) sans chevauchement.
Métisse [26], un système de fenêtrage X Window expérimental comportant un gestionnaire de fenêtres qui effectue son rendu en OpenGL, a exploré d’autres façons de réduire les chevauchements. Ainsi, Métisse propose à l’utilisateur des opérations de zoom et de rotation 3D pouvant être utilisées pour réduire le recou-vrement entre fenêtres. Le zoom est différent du redimensionnement car il applique un facteur d’échelle uniforme à tout le contenu de la fenêtre, ce qui évite de chan-ger son agencement. La rotation produit l’effet d’une porte que l’on ouvre, l’effet de perspective permettant de réduire sa largeur.

Autres Solutions

Devant la faible évolution des systèmes de fenêtrage ou tout du moins la faible adoption des avancées de la recherche dans les systèmes les plus répan-dus, les concepteurs d’applications ont commencé à implémenter eux-mêmes de mini-gestionnaires de contenus.
Les bibliothèques de composants graphiques de nombre de boîtes à outils de construction de logiciel (QT ou Java/Swing par exemple) fournissent en standard des espaces d’affichage pouvant contenir leurs propres fenêtres. Ces fenêtres sont très souvent “dockables”. Ceci signifie que, si l’utilisateur les approche du bord de la zone d’affichage, ces fenêtres se collent au bord, délaissant leur habillage et se comportant alors comme une boîte à outils. Ces mêmes bibliothèques proposent bien souvent la gestion plus ou moins avancée d’onglets qui sont un autre moyen de partager les ressources d’interaction entre différents contenus. Ce système d’on-glets a d’ailleurs été utilisé en 2001 par Beaudouin-Lafon [12] comme une manière d’améliorer les gestionnaires de fenêtres par chevauchement.
Un autre exemple de cette mouvance sont les navigateurs Internet. Ces logi-ciels se sont vus forcés d’évoluer fortement depuis ces dix dernières années devant l’explosion de l’utilisation de l’Internet et l’apparition de nombreuses applications en ligne et du “cloud computing”. Les utilisateurs passent de plus en plus de temps uniquement dans le navigateur qui devient peu à peu le nouveau “système”. Or, les développeurs de ces navigateurs ont depuis longtemps compris les limitations des systèmes de fenêtrage classique. Depuis ses débuts, Internet est surtout utilisé comme une ressource documentaire. De ce fait, une session de navigation sur Inter-net est le plus souvent une tâche d’exploration générant l’ouverture d’une multitude de pages Internet entraînant rapidement une surcharge des capacités de gestion de l’utilisateur muni des outils qui lui sont fournis par le système. Les concepteurs de navigateurs ont alors opté pour gérer l’ouverture des pages au sein même de leur application et ont adopté les onglets comme éléments de base, plus adaptés que les fenêtres recouvrantes pour l’exploration d’Internet : un onglet ouvert plus récem-ment est placé à droite d’un onglet ouvert il y a plus longtemps. Cette tendance s’accentue : À l’heure où les navigateurs Internet veulent devenir les nouveaux systèmes d’exploitation, ils continuent d’intégrer bien plus rapidement les éléments issus de la recherche que ne le font les systèmes traditionnels. Par exemple, le navi-gateur Firefox intègre un gestionnaire de pages qui propose les fonctions d’Exposé d’Apple et de bureau virtuel dans son outil Panorama [93] (Figure 1.6).
10/GUI 4 propose une approche différente de la gestion de fenêtres. Ce sys-tème prône l’utilisation d’une surface tactile multi-points à la place de la souris. Cette surface, aux dimensions de l’écran, permet une correspondance 1 :1 entre l’espace d’interaction et l’espace d’affichage. Au contraire des dispositifs mobile actuels, la surface tactile n’est pas confondue avec l’écran mais prends la place de la souris pour éviter les problèmes d’occlultation. 10/GUI cherche à simplifier la gestion des fenêtres en la limitant à une tâche en une seule dimension. Les fenêtres sont disposées linéairement, apparaissant à droite de l’écran et poussant les fe-nêtres précédentes vers la gauche, possiblement hors de vue. Les fenêtres occupent toutes la hauteur de l’écran et ne sont redimensionnables qu’en largeur. La puis-sance d’expression nécessaire à la gestion des fenêtres vient alors de l’utilisation de la technologie tactile multi-points. 10/GUI propose un vocabulaire de gestes dont la sémantique, c’est-à-dire la correspondance avec les commandes, dépend fonction du nombre de doigts utilisés. Les interactions avec un ou deux doigts sont destinées aux applications, alors que les interaction utilisant trois ou quatre doigts sont destinées au système. Il est ainsi possible de dezoomer pour avoir une vue plus large du ruban formé par les applications afin de trouver celle que l’on désire, réarranger les fenêtres ou tout simplement faire défiler le ruban.

Sélection et Changement de Fenêtre

La seconde opération essentielle d’un gestionnaire de fenêtres est la sélection de la fenêtre courante. Fondamentalement, cette opération se réduit à un problème de recherche. L’utilisateur à une idée de l’information qu’il recherche. Il doit re-trouver la fenêtre qui contient cette information parmi toutes celles actuellement ouvertes. Cette sélection est typiquement effectuée de trois manières différentes :
– À l’aide de la souris : L’utilisateur connaît déjà la fenêtre hébergeant l’infor-mation recherchée et au moins une partie de cette fenêtre est actuellement visible. Selon le système et les préférences de l’utilisateur, deux variantes d’activation sont généralement disponibles : 1) Le système considère que la fenêtre active est celle sous le curseur de la souris (“focus follows mouse”) ; 2) Le système considère que la fenêtre active est la dernière dans laquelle l’utilisateur a cliqué (“click to focus”).
– À l’aide du clavier : Une combinaison de touches tapées sur le clavier (gé-néralement Alt-Tab) permet de sélectionner successivement toutes les fe-nêtres. Là encore, plusieurs possibilités existent, allant d’une simple liste contenant le titre de chaque fenêtre à des miniature en temps réel des fe-nêtres.
– À l’ai1.3 Les techniques d’imagerie
Bien que les multi-éléments permettent différents types d’acquisitions, les modes de représentation des données mesurées sont analogues à ceux rencontrés dans le cas de contrôle mono-élément (cf. (CO-FREND)).
En reprenant la définition du B-scan (§ 1.1.2), celle-ci peut être étendue aux acquisitions multi-éléments effectuant des balayages électroniques, que ce soit un balayage par commutation ou un balayage sectoriel, ainsi un A-scan correspond à un groupe d’éléments activés pour une séquence dans le premier cas, ou, à un tir avec une déflexion donnée pour le second. Dans ce dernier cas, on peut aussi parler de scan sectoriel (S-scan) linéaire.
La représentation des signaux sous forme d’image (B-scan) est une première étape à l’analyse des don-nées, mais cette dernière peut être rendue difficile, comme par exemple du fait du très grand nombre de données que l’on peut avoir avec une acquisition exploitant les voies élémentaires. Des méthodes d’aide à l’examen des signaux mesurés doivent alors être mise en œuvre. Nous parlerons alors de techniques d’ima-gerie dès lors que des post-traitements sur les données recueillies sont appliqués de sorte à obtenir une image dont l’interprétation permet de localiser les défauts à l’origine des échos mesurés. Différentes mé-thodes, souvent liées au type d’acquisition effectuée, reposent sur des stratégies plus ou moins complexes. Dans ce paragraphe, nous présentons de façon non exhaustive certaines de ces méthodes.

Les images par ouverture synthétique

Les images redress´ees

Sous ce terme on considère des fonctionnalités classiques en CND et en médical (Reid et Wild, 1957) qui visent à positionner, dans la pièce –ou le corps humain–, les signaux reçus le long de « rayons ». Ce type d’imagerie est appliquable avec des acquisitions en balayage (au sens général) et par analogie avec le mode de représentation sous jacent, nous parlerons de « B-Scan Vrai », voire d’« image vraie ».
Le principe général de cette technique repose sur les hypothèses suivantes, i) le faisceau transmis au cours d’un tir donné se distribue autour d’un rayon et ii) le signal reçu provient d’un diffracteur situé sur ce rayon. Ainsi, connaissant la vitesse de propagation et les angles de réfraction des rayons dans le matériau, les signaux qui ont été mesurés peuvent être replacés le long de ces rayons.
Ce principe d’imagerie est utilisé dans le domaine médical pour former les célèbres images échogra-phiques obtenues avec un balayage sectoriel. En CND, cette approche est aussi très utilisée dans le cas de contrôle par balayage mécanique d’un traducteur mono-élément ou dans le cas de balayage sectoriel avec un traducteur multi-éléments.
Cette visualisation, sous l’hypothèse de rayons rectilignes, n’est valable que pour des matériaux à struc-tures homogènes. Néanmoins, cette dernière a été étendue en la couplant à un modèle rayon afin d’ima-ger des milieux hétérogènes et anisotropes (Mahaut et al., 2007). Par ailleurs, contrairement au domaine médical, en CND les inspections peuvent être effectuées en immersion, des algorithmes faisant intervenir une modélisation plus sophistiquée de la propagation ont été implémentés dans CIVA pour déterminer un rayon plus représentatif du faisceau transmis, notamment sur le calcul du point d’émergence (point par le-quel « le faisceau ultrasonore » entre dans la pièce) (Porré et al., 2005) qui est un des paramètres importants pour une localisation correcte des défauts.

Les images par ouverture synth´etique

Le concept d’imagerie par ouverture synthétique a été introduit dans les années 50 dans le domaine du radar sous le terme de méthode SAR (Synthetic Aperture Radar) (Sherwin et al., 1962; Wiley, 1954-1965; Caf-forio et al., 1991). Des méthodes identiques en substance (méthodes de « migration ») sont aussi utilisées en sismique (Berkhout, 1986; Gazdag et Sguazzero, 1984). Cette approche a été transposée dans différents domaines notamment, dans celui du sonar avec la méthode SAS (Synthetic Aperture Sonar) (Cutrona, 1975; Gough et Hawkins, 1997), dans celui de l’imagerie médicale ((Karaman et al., 1995; Jensen et al., 2006)), et, dans celui du CND par ultrasons avec la méthode SAFT (Synthetic Aperture Focusing Technique) (Seydel, 1982; Doctor et al., 1986).
La méthode SAFT a été mise en œuvre dans le contexte de contrôle en balayage mécanique avec un traducteur mono-élément de grande acceptance angulaire (transducteur de petite dimension par exemple). Cette méthode consiste en une reconstruction de l’image a posteriori par sommation des signaux reçus en chaque position du traducteur et repose sur le fait que lorsque le traducteur insonifie un point diffractant, la position sur le signal reçu de l’écho renvoyé par ce point est fonction de la distance traducteur-défaut. Ainsi, pour obtenir un « point » de l’image, la sommation est effectuée sur les signaux sur lesquels ont été appliqués des retards associés à la position du traducteur et du point considéré. Si le point correspond à un point diffractant l’addition est constructive, elle est destructive dans le cas contraire.Cette technique revient à focaliser les signaux en chaque point de l’image par post-traitement.
Les hypothèses simplificatrices fortes pour le calcul des retards (transducteur ponctuel et fronts d’onde hyperboliques) ont rendu cette méthode, dans sa version première, facile à implémenter puisqu’elle ne fait intervenir qu’un schéma de type « delay-and-sum ». Cette méthode a fait l’objet de nombreux déve-loppements, notamment sur le modèle utilisé pour le calcul des retards. Ces évolutions ont été motivées pour prendre en compte des configurations plus complexes, comme par exemple le contrôle de matériaux anisotropes et hétérogènes où la méthode a été couplée à un modèle « rayon » prenant en compte la pro-pagation dans de tels milieux (Shlivinski et Langenberg, 2007; Connolly et al., 2009). L’algorithme de base est mis en œuvre dans le domaine temporel, des versions fréquentielles exploitant à la fois une transformée de Fourier temporelle et une transformée de Fourier spatiale bidimensionnelle ont été développées (par exemple, la méthode FT-SAFT (Nagai, 1984; Mayer et al., 1990)). Récemment des algorithmes avancés de migration opérant dans le domaine de Fourier, comme la méthode de Stolt (Stolt, 1978), ont été appliquées au CND par ultrasons (Chang et Chern, 2000; Stepinski, 2007; Hunter et al., 2008). La méthode SAFT a été étendue aux acquisitions multi-éléments de type FMC également appelées Sampling Phased Array, les mé-thodes ainsi développées dans ce contexte ont pour dénomination Total Focusing Method ( TFM) (Holmes et al., 2005) ou TomoSAFT (Bulavinov et al., 2006). Des versions fréquentielles s’appuyant sur la méthode de migration précitée et s’appliquant sur de telles acquisitions ont aussi été développés (par exemple (Hunter et al., 2008)).
Classiquement, il est supposé un seul mode de propagation, en onde de volume longitudinal en général. Une autre voie de développements a porté sur la prise en compte de modes de propagation plus complexes, par exemple par ondes guidées (Kwon et al., 2009; Catton et al., 2009) ou avec des ondes de trajet direct, in-direct ou de coin (Zhang et al., 2009) (cf. CH A PI T R E 5). Les algorithmes de reconstruction que nous avons développés sont basés sur cette approche. Ils ont été couplés à une modélisation complète du contrôle, per-mettant, entre autres, de prendre en compte des configurations complexes et différents types d’acquisitions multi-éléments.

M´ethodes s’appuyant sur une analyse de l’op´erateur de Retournement Temporel

Les techniques dites de Retournement Temporel (RT) sont fondées sur l’invariance temporelle de l’équa-tion de propagation des ondes. Quelques soient les déformations subies dans un milieu de propagation complexe (voir par exemple Jeong et al. (2009)) par une onde rayonnée à partir d’une source donnée, il existe toujours, en théorie, une onde duale capable de parcourir en sens inverse tous les chemins com-plexes et qui converge exactement à la source. Le « miroir à retournement temporel » crée physiquement cette onde duale à partir d’un réseau d’éléments (émetteurs et récepteurs) et des mémoires électroniques, et est utilisé pour focaliser sur une cible une énergie ondulatoire sans connaissance a priori des milieux traversés. En pratique dans le contexte du CND et comme il est schématisé sur la FI G U R E 1.7 :
1. Les éléments émettent une onde brève vers le solide à inspecter.
2. Si une hétérogénéité (défaut) est présente dans le volume insonifié, il recevra une partie de l’énergie incidente et se comportera comme une source acoustique renvoyant un écho qui sera mesuré par l’ensemble des éléments.
3. Tous les signaux mesurés sont réémis dans une chronologie inversée, et, l’onde ainsi créée se refoca-lise sur sa source initiale.
L’itération de cette procédure assure la convergence du faisceau ultrasonore sur le défaut le plus écho-gène optimisant ainsi sa détection.
La méthode DORT (Diagonalisation de l’Opérateur de Retournement Temporel) développée par Prada et Fink (1994) dérive de cette approche. Elle s’appuie sur l’analyse mathématique du processus itératif du retournement temporel et a pour avantage d’éviter d’effectuer physiquement toutes les itérations en se contentant d’une acquisition de la « matrice des réponses inter-éléments », autrement dit une acquisition FMC. Dans le domaine fréquentiel, la décomposition en valeurs singulières de cette matrice renseigne sur le nombre de diffuseurs présent dans le milieu. À chaque valeur singulière significative peut, en général, être associé un diffuseur et le vecteur singulier correspondant donne accès à la loi de phases permettant de focaliser sur ce même diffuseur. L’analyse de la matrice donne ainsi accès directement aux lois d’amplitude et de retard qui seraient obtenues lors d’une opération de focalisation itérative par RT.
La méthode DORT est ainsi une méthode de focalisation dynamique puissante qui permet d’optimiser la détection de défauts par un réseau multi-éléments sans connaissance a priori de la géométrie des in-terfaces et des caractéristiques des matériaux traversés. Lorsque l’on dispose de cette connaissance, la dé-composition de l’opérateur retournement temporel peut être exploitée à des fins d’imagerie. Une première possibilité consiste à effectuer une rétro-propagation numérique des signaux (signaux déduits des « vec-teurs singuliers »). Cette opération nécessite la mise en œuvre d’une modélisation de la propagation de l’onde dans la pièce inspectée (Prada et al., 2002). La cartographie du champ ultrasonore dans la pièce four-nit alors une image permettant de localiser le défaut détecté. La résolution obtenue par cette technique est fonction de la PSF (pour Point Spread Function, ou en français, fonction d’étalement du point) autrement dit de l’ordre des dimensions de la tache focale du réseau multi-éléments.
Afin d’obtenir une meilleure résolution plusieurs auteurs (Lehman et Devaney, 2003; Prada et Thomas, 2003; Devaney, 2005) ont proposé de coupler la méthode d’acquisition à des algorithmes de traitement is-sues des techniques de séparation de sources. Une attention particulière a été portée à l’algorithme MUSIC (MUltiple SIgnal Classification) (Cheney, 2001; Kirsch, 2002) . Les fondements de l’application de cet al-gorithme à l’imagerie multi-éléments sont décrits pour le cas acoustique dans Lehman et Devaney (2003). L’algorithme MUSIC est basé sur une décomposition de l’espace des signaux mesurés en un sous espace signal et un sous espace bruit. Les vecteurs singuliers associés aux valeurs singulières les plus importantes forment une base du sous espace signal, ceux qui restent forment une base du sous espace bruit. En notant h(x, r j ) le champ acoustique en un point x de la région d’intérêt rayonné par l’élément j = 1 . . . N du réseau localisé en r j , le principe de la méthode est le suivant :
– Si un diffuseur est présent en x, le vecteur H (x) = [h(x, r1), . . . , h(x, r N )]t est un vecteur singulier de la matrice et par construction appartient au sous espace signal.
– Les vecteurs singuliers étant orthogonaux, la projection d’un vecteur du sous espace signal sur le sous espace bruit est nul.
Par conséquent si l’on cartographie la quantité E (x) = 1/ Pbruit[H (x)] 2 , (1.5)
où Pbruit[H (x)] est la projection de H (x) sur le sous-espace bruit alors on observera des maxima d’intensité au voisinage des défauts.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction g´en´erale xiii
1 Imagerie ultrasonore en CND : ´etat de l’art 
1.1 Généralités sur le CND par ultrasons
1.1.1 Caractéristiques d’un champ acoustique ultrasonore émis par un traducteur
1.1.2 Représentation des données ultrasonores
1.2 Les techniques multi-éléments
1.2.1 Techniques d’acquisitions multi-éléments
1.2.2 Types de traducteursmulti-éléments
1.2.3 Exploitation des voies élémentaires
1.2.4 Simulation multi-éléments
1.3 Les techniques d’imagerie
1.3.1 Les images redressées
1.3.2 Les images par ouverture synthétique
1.3.3 Méthodes s’appuyant sur une analyse de l’opérateur de Retournement Temporel
1.4 Conclusion
2 Algorithmes de reconstruction 
2.1 Introduction
2.2 Modélisation directe
2.2.1 « Méthode écho »
2.2.1.1 Modélisation d’un écho dû à un diffracteur ponctuel
2.2.1.2 Extraction des temps de vol et des amplitudes
2.2.2 « Méthode rayon »
2.2.3 Grille de calcul et interpolation
2.3 Algorithmes de reconstruction : exploitation des données théoriques
2.3.1 Exploitation des temps de vol : Focalisation en Tous Points (FTP)
2.3.2 Exploitation des temps de vol et des amplitudes
2.3.2.1 Utilisation d’un seuillage
2.3.2.2 L’approche « BScan Vrai Généralisé »
2.3.2.3 FTP pondérée par la corrélation d’amplitude
2.3.3 Formalisme unifié des algorithmes
3 Mise en oeuvre des algorithmes de reconstruction sur diff´erents types d’acquisitions multi- éléments 
3.1 Introduction
3.2 Acquisition à faisceau formé : exemple du balayage angulaire
3.2.1 Configurations de contrôle et imagerie BSV
3.2.2 Recalage temporel
3.2.3 Application de FTP
3.2.4 Bscan Vrai « Généralisé »
3.2.5 Utilisation de la corrélation d’amplitude
3.2.6 Erreur de localisation
3.3 Acquisitions à voies élémentaires
3.3.1 Application à l’acquisition « FullMatrix Capture »
3.3.1.1 Application de BSVG
3.3.1.2 Application de FTP et FTP+corrélation
3.3.1.3 Comparaison de FTP avec les méthodes « écho » et « rayon »
3.3.1.4 Calcul des courbes échodynamiques et du RSB
3.3.2 Application à l’acquisition « Émission Large Champ » (ELC)
3.4 Conclusion
4 ´Etude de l’algorithme FTP appliqu´e aux acquisitions « Full Matrix Capture » et d´eriv´ees
4.1 Introduction
4.2 Quantification de la performance de FTP vis-à-vis d’incertitude sur les paramètres du contrôle
4.2.1 Erreur sur la vitesse de propagation
4.2.1.1 Contrôle au contact sur pièce plane
4.2.1.2 Contrôle en immersion de pièces plane et complexe
4.2.2 Erreur sur le positionnement du traducteur
4.2.2.1 Contrôle en immersion d’une pièce de surface plane
4.2.2.2 Contrôle en immersion d’une pièce de géométrie complexe
4.2.3 Erreur sur la description de la surface
4.2.3.1 Erreur sur la longueur des flèches h1 et/ou h2
4.2.3.2 Erreur sur la longueur des arcs L1 et/ou L2
4.3 Quantification de la performance de FTP vis-à-vis du nombre de signaux acquis
4.3.1 Outilsd’analyse
4.3.1.1 Image FTP et champ en émission-réception
4.3.1.2 Concept d’ouverture effective
4.3.2 Application de FTP sur des sous ensembles de la matrice inter-éléments
4.3.2.1 Sous échantillonnage en émission et en réception
4.3.2.2 Réduction du nombre d’émetteurs à ouverture constante
4.3.2.3 Réduction du nombre d’émetteurs en les prenant consécutifs
4.3.3 Vérification de la réciprocité entre émission et réception
4.3.4 Comparaison des différentes techniques
4.4 Conclusion
5 Reconstruction de d´efaut ´etendu avec une acquisition FMC 
5.1 Introduction
5.2 Reconstruction FTP sur un défaut étendu
5.2.1 Imagerie par réflexion spéculaire
5.2.2 Étude des amplitudes évaluées en un point du défaut étendu
5.2.2.1 Construction des signaux « portes »
5.2.2.2 Analyse des courbes d’amplitude
5.2.3 Vers une estimation de l’orientation du défaut
5.2.4 Vers une estimation de la taille du défaut
5.3 Reconstruction multimodale
5.3.1 Applications aux « échos de coin »
5.3.2 Compteur de réflexion
5.4 Résultats obtenus sur pièce plane
5.4.1 Défaut plan vertical débouchant sur le fond
5.4.1.1 Analyse des images reconstruites en mode direct
5.4.1.2 Analyse des images reconstruites en mode de coin
5.4.1.3 Discussion
5.4.2 Défaut plan vertical non débouchant
5.4.2.1 Analyse des images reconstruites en mode direct
5.4.2.2 Analyse des images reconstruites en mode de coin
5.4.2.3 Discussion
5.4.3 Défaut plan incliné débouchant formant un dièdre d’angle obtu
5.4.3.1 Analyse des images reconstruites en mode direct
5.4.3.2 Analyse des images reconstruites en mode de coin
5.4.3.3 Discussion
5.4.4 Défaut plan incliné débouchant formant un dièdre d’angle aigu
5.4.4.1 Analyse des images reconstruites en mode direct
5.4.4.2 Analyse des images reconstruites en mode de coin
5.4.4.3 Discussion
5.5 Résultats obtenus sur pièce de géométrie complexe
5.5.1 Acquisition no1
5.5.1.1 Analyse des images reconstruites en mode direct
5.5.1.2 Analyse des images reconstruites en mode de coin
5.5.1.3 Discussion
5.5.2 Acquisition no2
5.5.2.1 Analyse des images reconstruites en mode direct
5.5.2.2 Analyse des images reconstruites en mode de coin
5.5.2.3 Discussion
5.6 Conclusion
Conclusion générale 
A Signal analytique et enveloppe de Hilbert
A.1 Déphasage
A.2 Sensibilité du déphasage
B Calcul d’une isochrone pour un ´echo de coin dans le cas d’un fond plan
Résumé
Abstract

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *