Pour caractériser un matériau en mécanique des solides, des étapes de mesures sous sollicitation sont essentielles. Les méthodes conventionnelles s’appuient sur l’utilisation de jauges ou d’extensomètres pour mesurer des déformations locales ou moyennées. Ces techniques, aujourd’hui très fables, peu coûteuses, et bien souvent normalisées, s’appliquent à l’identifcation des propriétés mécaniques, essentiellement pour des essais simples. Ces limites entraînent bien souvent la multiplication d’essais, où l’usage de nombreux capteurs ponctuels rendent l’essai plus coûteux et peuvent avoir un impact sur le comportement du matériau.
Avec l’arrivée des méthodes de mesures de champs, la caractérisation des matériaux s’ouvre à de nouvelles possibilités. L’obtention d’une telle mesure permet l’accès à une cartographie de la grandeur physique mesurée, au lieu de se limiter à une mesure ponctuelle ou moyennée. Il est possible d’exploiter des essais non-conventionnels avec des éprouvettes présentant des géométries particulières ou sous des sollicitations complexes de façon plus quantitatives. Une grande variété de techniques existe, et on peut par exemple distinguer les méthodes interférométriques des non-interférométriques (Grédiac et Hild, 2011). Parmi les premières, il est possible de reconnaître celles qui se basent sur la difusion, sur la difraction ou sur la réfexion (Surrel, 2005).
Formulation de la corrélation d’images numériques dans l’image
Conservation du niveau de gris
La CIN voit le jour au début des années 1980, avec le développement des capteurs de photographie numérique et grâce aux progrès réalisés dans le domaine de la vision par ordinateur. Les premiers travaux portent sur le fux optique (Lucas et Kanade, 1981) ; la CIN se développe ensuite rapidement dans le domaine de la mécanique des solides en permettant de mesurer un champ de déplacement en deux dimensions de la surface plane d’un objet à l’aide d’une caméra numérique fronto-parallèle (Sutton et al., 1983). L’image est par exemple capturée par un capteur CCD et peut être traitée comme une matrice de niveau de gris. Chaque coefcient de cette matrice représente un pixel dont sa valeur, un entier inclus dans un intervalle fermé, représente le niveau de gris de ce pixel.
En disposant de deux images d’un même objet se trouvant dans des conditions de chargement diférentes, la CIN consiste à retrouver le champ de déplacement u à appliquer à chaque point de la première image afn de retrouver le point correspondant dans la seconde image (fgure 1.1). Cette méthode s’appuie sur la conservation du niveau de gris.
Formulation faible
Le problème de CIN est mal posé au sens de Hadamard . Il s’agit d’un problème sousdéterminé pour deux raisons : d’une part car le champ vectoriel u a deux composantes alors qu’il est recherché à partir de données scalaires (les niveaux de gris) ; et d’autre part car les données issues du capteur sont discrètes et quantifées, alors que le champ cinématique est continu. Les conditions d’existence et d’unicité de Hadamard ne sont donc pas respectées. On peut aisément s’en convaincre en considérant, par exemple, le cas d’une image en noir et blanc de 5 000 000 de pixels avec 256 niveaux de gris. D’une part, plusieurs pixels auront le même niveau de gris, ce qui contrevient à la condition d’unicité. D’autre part, il est possible qu’un niveau de gris dans l’image de référence n’existe pas dans l’image déformée, ce qui contrevient à la condition d’existance.
Initialisation :
S’agissant d’une méthode de Newton, l’initialisation de u (0) doit être réalisée avec soin. Sans indications supplémentaires sur la forme du champ cinématique fnal, une méthode simple serait de le considérer comme initialement nul, c’est-à-dire que ∀x ∈ Ω on suppose que u (0)(x) = [ 0 0]T . Cependant si l’initialisation est trop loin du champ fnal, comme dans le cas de grandes transformations, l’algorithme risque de diverger, ou de converger vers un minimum local. Afn d’éviter cet écueil, une approche multi-niveaux est souvent envisagée, comme par exemple dans les travaux de Réthoré et al., 2007a. Les auteurs proposent de fltrer les images et de réduire la dimension de l’espace d’approximation. Pour cela, il est possible de réduire la qualité des images en efectuant une dégradation par regroupement de pixels . Dans le même temps, la taille du sous-espace d’approximation peut-être réduite en diminuant directement le nombre nd de fonctions d’interpolation. La mesure CIN est alors réalisée en commençant par l’image la plus grossière dans le sous-espace le plus grossier, puis tour à tour aux niveaux de plus en plus rafnés. Cette approche nécessite de pouvoir passer facilement d’un espace d’approximation à un autre, et donc de choisir judicieusement les bases de fonctions d’interpolation. Une autre stratégie serait de régulariser le problème, et de diminuer l’impact de cette régularisation en passant des niveaux grossiers aux niveaux plus rafnés (le chapitre 6 développe justement le problème de la régularisation). Quoi qu’il en soit, une approche multi-niveau permet en outre de manipuler des images plus petites, ce qui permet d’accélérer la vitesse de résolution.
Méthodes dites « locales »
Les méthodes locales sont historiquement les premières développées dans les années 1980. Elles sont issues de la communauté de l’analyse d’images (Horn et Schunck, 1981 ; Peters et Ranson, 1982). Ces méthodes restent aujourd’hui encore à la base de quasiment tous les logiciels de CIN commerciaux, et sont très utilisées dans les milieux industriels et académiques.
L’idée pour retrouver le déplacement u(x) d’un point x entre l’image de référence et l’image déformée, est de considérer un petit ensemble de pixels centré sur ce point. Cette zone, en général carrée, est appelée une « imagette » ou une « fenêtre de corrélation ». Le problème consiste à retrouver la position des imagettes dans l’image déformée (fgure 1.3). En pratique, les méthodes locales permettent de mesurer le déplacement des centres de toutes les imagettes, une étape d’extrapolation sera donc nécessaire pour manipuler un champ continu. On notera que cette étape d’extrapolation, ainsi que le choix des imagettes infuenceront la précision du résultat. En efet avec une grande imagette il sera beaucoup plus facile de la retrouver dans l’image déformée, mais le temps de calcul augmente. Au contraire une imagette trop petite peut ne pas être assez discriminante et rendre le calcul du déplacement impossible (Schreier et Sutton, 2002).
En revanche l’étape d’extrapolation, qui permet de calculer un champ cinématique continu, peut entraîner des incertitudes. Par ailleurs une mesure sur les bords de l’objet est compliquée puisqu’il faudra considérer des pixels autour du point de mesure. D’autre part, le dialogue entre les essais et la simulation est difcile puisque les méthodes locales considèrent le déplacement du centre d’imagettes défnies arbitrairement. Il faut envisager plusieurs étapes de post-traitements pour rendre comparables un champ de déplacement mesuré par CIN et un champ de déplacement simulé ; ces étapes entraînent alors de nouvelles sources d’incertitudes et complexifent les calculs. Enfn il semble bien plus difcile d’utiliser dans ce cas un modèle directement dans la mesure pour la régulariser. Dans le cadre d’une utilisation en mécanique des solides pour des travaux de caractérisation et a fortiori dans le cadre de cette thèse, la facilité du dialogue entre les essais et la simulation et la possibilité de mêler le modèle à la mesure est pourtant un point crucial. D’autres méthodes, qui facilitent cela, seront présentées dans la suite.
Méthodes dites « globales »
Les méthodes dites « globales » ont été développées plus tard, essentiellement à partir des années 2000. Plutôt que de traiter a posteriori les déplacements de points discrets obtenus par les méthodes locales pour les rendre utilisables dans des applications de mécanique ; l’idée est d’exploiter des hypothèses faites a priori sur le champ de déplacement que l’on s’apprête à mesurer. Ces hypothèses peuvent, par exemple, être la continuité du déplacement, sa dérivabilité, ou la continuité de la déformation.
Le formalisme mathématique utilisé dans ce premier chapitre, introduit par Besnard et al., 2006, permet d’unifer l’expression des méthodes locales avec celle de ces méthodes globales. Ainsi, en fonction de la base de fonctions d’interpolation ( Ni(x) ) i∈J1,ndK choisie, plusieurs sous-familles se distinguent : nous en présenterons succinctement quelques unes.
Analyse spectrale
Les méthodes d’analyse spectrale utilisent un sous-espace vectoriel d’approximation Vℎ construit par des séries de Fourier (Bernard, 1999 ; D. J. Chen et al., 1993). L’intérêt de l’utilisation de ces séries de Fourier est de permettre l’expression d’un champ de déplacement δu continu dans la RdI (Roux et al., 2002 ; Wagne et al., 2002). Plusieurs techniques on été mises en place pour diminuer les incertitudes de mesure avec des champs cinématiques de plus en plus complexes (Mortazavi et al., 2013).
Analyse isogéométrique
La manipulation d’un champ de déformation continu est souvent commode en mécanique. Ainsi, restreindre la recherche des champs cinématiques u à ceux de classe C1 de dérivée continue apparaît comme une bonne stratégie. Pour cela, l’utilisation d’une base de fonctions d’interpolation composées de B-Splines paraît comme une alternative efcace (Cheng et al., 2002). La méthode est améliorée par l’utilisation de NURBS avec les travaux de Réthoré et al., 2010 et de Elguedj et al., 2011. Ces fonctions permettent la mesure de champs très régularisés et compatibles avec le support de la forme. Une adaptation à la S-CIN est également mise en place, afn de permettre la mesure des surfaces en trois dimensions ainsi que de leur déplacement dans l’espace (Beaubier et al., 2014 ; Dufour et al., 2015b).
|
Table des matières
Introduction générale
Partie I Corrélation d’images numériques : état de l’art
1 Mesure de champ par CIN
1.1 Formulation de la CIN dans l’image
1.1.1 Conservation du niveau de gris
1.1.2 Formulation faible
1.1.3 Résolution avec un algorithme itératif
1.1.4 Formulation variationnelle
1.1.5 Discrétisation du problème
1.2 Choix d’une base de fonctions d’interpolation
1.2.1 Méthodes dites « locales »
1.2.2 Méthodes dites « globales »
1.2.2.1 Analyse spectrale
1.2.2.2 Analyse isogéométrique
1.2.2.3 Solutions analytiques
1.2.2.4 Solutions numériques
1.2.2.5 Méthode de séparation de variables (PGD)
1.2.2.6 Méthode des éléments fnis
1.2.2.7 Méthode des éléments fnis étendus
Conclusion sur les méthodes globales
1.3 Considérations pratiques pour la mesure du champ cinématique
1.3.1 Texture de l’objet
1.3.2 Méthode de quadrature éléments fnis
1.3.3 Interpolation du niveau de gris
1.3.4 Estimation de l’incertitude de mesure
1.3.5 Mouvement physique de l’objet dans l’espace
2 Modélisation d’une caméra
2.1 Construction d’un modèle de caméra simple : le modèle sténopé
2.1.1 Système de coordonnées homogènes et repère
2.1.2 Passage du repère de l’objet au repère de la caméra
2.1.3 Projection dans le plan rétinien
2.1.4 Passage du repère rétinien au repère de l’image
2.1.5 Ré-écriture du modèle sténopé
2.2 Prise en compte des défauts de la caméra
2.2.1 Défauts géométriques du capteur
2.2.2 Défauts du système optique : les distorsions
2.3 Étalonnage photogrammétrique du modèle de caméra
2.3.1 Méthode d’étalonnage photogrammétrique d’une caméra
2.3.2 Cas de la stéréovision : position relative des caméras
3 Mesure 3D avec la Stéréo-CIN
3.1 Mesure classique d’un déplacement par S-CIN
3.2 Mesure par S-CIN-EF
3.2.1 Étalonnage et mesure de forme
3.2.2 Mesure de déplacement
3.2.3 Dégradation en CIN-2D
3.3 Implémentation dans un programme informatique
Partie II Apprentissage du dispositif de mesure
4 Principes généraux sur l’apprentissage
4.1 Défnition de l’apprentissage du dispositif de mesure
4.1.1 Contexte
4.1.2 Formulation continue du problème d’apprentissage
4.2 Point fxe d’étalonnage des paramètres extrinsèques
4.3 Point fxe de correction de la forme
4.3.1 Discrétisation du problème d’apprentissage
4.3.2 Résolution du problème de mesure de la forme
4.3.3 Projection de la forme dans la direction normale
4.4 Implémentation de l’apprentissage dans un programme informatique
4.4.1 Reformulation de l’étalonnage sous forme matricielle
4.4.2 Déploiement de l’étalonnage dans un module Python
5 Résolution de l’apprentissage dans un cas expérimental
5.1 Présentation d’un essai de traction
5.2 Initialisation du problème d’étalonnage
5.2.1 À partir de quelques points : pré-initialisation
5.2.2 À partir d’amers : initialisation
5.2.3 Comparaison des résidus
5.2.4 Association des amers et des niveaux de gris
5.2.5 Modifcation du programme informatique pour utiliser les amers
5.3 Résolution de l’apprentissage par points fxes
5.4 Masque de pixels sur les bords
5.5 Ajustement de la luminosité et du contraste
5.5.1 Ajuster l’éclairage en S-CIN
5.5.2 Infuence de l’ajustement de la luminosité et du contraste
5.5.3 Implémentation de l’ajustement de la luminosité et du contraste dans un programme informatique
5.6 Accélération de l’apprentissage avec la position relative des caméras
6 Régularisation géométrique non-invasive et multi-échelle de la correction de forme
6.1 Régularisation de Tikhonov
6.1.1 Mise en place d’une régularisation de type Tikhonov
6.1.2 Correction de forme avec une régularisation de Tikhonov
6.2 Régularisation géométrique non-invasive et multi-échelle
6.2.1 Introduction à l’analyse isogéométrique
6.2.2 Rafnement du maillage
6.2.3 Pont entre l’AIG et la MEF
6.2.4 Méthodologie de régularisation proposée
6.3 Robustesse de la régularisation géométrique
6.3.1 Construction du modèle IG et du maillage EF
6.3.2 Régularisation géométrique de l’apprentissage
6.3.3 Exemple avec une mesure bilatérale
Conclusion
Télécharger le rapport complet