Télécharger le fichier pdf d’un mémoire de fin d’études
Manque de robustesse de l’inversion g´en´eralis´ee
La solution inverse g´en´eralis´ee x† satisfait au caract`ere bien pos´e, au sens de Hadamard. Cependant, en pratique, cette solution n’est pas satisfaisante en g´en´eral. Elle peut souffrir d’un manque de robustesse. La robustesse ´etant d´efinie de telle fa¸con qu’une petite perturbation sur les observations n’entraˆıne qu’une petite erreur sur la solution.
Illustrons ce manque de robustesse. Soit δy une erreur sur l’observation y et soit δx† l’erreur induite sur la solution inverse g´en´eralis´ee x†. En utilisant la lin´earit´ de (II.5) ainsi que celle de y = Hx, on peut obtenir l’in´egalit´ suivante : δx†≤ cδyx†y(II.6) avec c = H H† ≥ 1, o`u A est la norme matricielle d´efinie par A = supu=0 Au / u .
La quantit´e c est appel´ee nombre de condition du probl`eme. Lorsque c est proche de l’unit´e, le probl`eme est dit bien conditionn´e, sinon il est dit mal conditionn´e. Il est a` noter que l’in´egalit´ (II.6) peut devenir une egalit´ pour certains couples (y, δy).
Le nombre de condition est intimement li´e a` la stabilit´e de la solution inverse g´en´eralis´ee x†. Plus il sera grand, et plus l’influence de l’erreur δy sur l’observation sera marqu´ee sur la solution inverse g´en´eralis´ee x†. Le bruit en sera alors d’autant plus amplifi´e sur la solution ainsi estim´ee.
Ceci nous am`ene au constat que les conditions de Hadamard sont insuffisantes pour obtenir une solution de qualit´e. En effet, si la condition de Hadamard de continuit´e est n´ecessaire pour assurer la robustesse, elle n’est pas suffisante. Comme expos´e pr´ec´edemment, un probl`eme bien pos´e peut ˆetre mal conditionn´e, ce qui rend alors sa solution non robuste.
Pour finir, la solution inverse g´en´eralis´ee x† peut ne pas ˆetre suffisante mˆeme dans le cas d’un probl`eme bien conditionn´e. Pour un probl`eme de d´ebruitage (i.e., H = I), la solution inverse g´en´eralis´ee associ´ee est trivialement a` la fois bien pos´ee et bien conditionn´ee. Dans ce cadre, l’estimation de l’inconnue se trouve ˆetre exactement l’observation, ce qui est ´evidement loin d’ˆetre satisfaisant.
R´egularisation par approches p´enalis´ees
Les probl`emes inverses mal conditionn´es sont intrins`equement instables et leur inversion na¨ıve conduit syst´ematiquement a` des difficult´es. L’exemple pr´ec´edent a montr´e que tenter de d´efinir une inversion a` partir de la seule connaissance de l’observation y est vou´e a` l’´echec. Le principe de r´egularisation [Nashed, 1981, p. 223], fournit un cadre pr´eliminaire permettant de d´efinir une solution stable.
Principe de la r´egularisation
D´efinition II.2.1. Un r´egularisateur de l’´equation y = Hx est une famille d’op´erateurs {Rλ; λ ∈ Λ} telle que :
∀λ∈Λ, Rλ:RM RN est continu (II.7a)
∀ y ∈ RM , lim y H†y . (II.7b)
λ→0Rλ( )=
Dans cette d´efinition, H† est l’inverse g´en´eralis´ de H d´efini pr´ec´edemment en section II.1.2 et λ est le param`etre de r´egularisation a` valeur dans Λ. Un r´egularisateur ainsi d´efini contient comme cas limite (λ → 0) la solution inverse g´en´eralis´ee, qui est, rappelons le, insatisfaisante en g´en´eral. L’int´erˆet d’un r´egularisateur est d’offrir a` l’utilisateur des degr´es de libert´ pour construire une solution plus satisfaisante que la solution inverse g´en´eralis´ee.
Par la suite, nous expliciterons diff´erents r´egularisateurs, tous bas´es sur la mˆeme structure g´en´erale. En somme, ce cadre abstrait d´efinissant un r´egularisateur illustre en fait la m´etho-dologie mise en œuvre en pratique pour d´eterminer une solution au probl`eme inverse. Cette m´ethodologie peut ˆetre vue comme une proc´edure en deux temps. La structure analytique du r´egularisateur est d’abord choisie, sur la base de connaissances a priori sur la solution recher-ch´ee. Puis, le param`etre de r´egularisation λ est alors ajust´e afin de fournir une solution jug´ee satisfaisante.
Pour les images, les propri´et´es a priori de la solution se caract´erisent tr`es souvent par une certaine r´egularit´ locale. Un moyen simple de prise en compte de cet a priori consiste `a p´enaliser les candidats qui s’´ecartent de cette notion de r´egularit´ tout en privil´egiant les candidats respectant cette r´egularit´ souhait´ee.
R´egularisation au sens de Tikhonov
Les travaux pr´ecurseurs de Tikhonov [Tikhonov, 1963] initialement dans un cadre continu, consistent dans un cadre discret a` d´efinir la solution du probl`eme inverse comme ´etant le mini-miseur d’un crit`ere des moindres carr´es p´enalis´ par un terme quadratique J (x) = y − Hx 2 + λP(x)
Ravec λ > 0. Dans le cadre de la d´efinition II.2.1 d’un r´egularisateur, l’ensemble Λ se trouve ˆetre
+ .
Dans ses premiers travaux, Tikhonov propose de p´enaliser les trop fortes valeurs de la solution par le biais de l’utilisation de P(x) = x 2.
On peut noter que la solution ainsi d´efinie est reli´ee `a la solution g´en´eralis´ee (II.4). La solution d´efinie par Tikhonov peut ˆetre interpr´et´ee comme la relaxation de la contrainte d’ˆetre exacte-ment une solution des moindres carr´es. Il s’agit d’un compromis entre ˆetre proche de la solution des moindres carr´es et assurer `a la solution d’avoir une norme minimale. Il est connu que cette p´enalisation entraˆıne un effet de rappel vers z´ero de la solution.
Plutˆot que de p´enaliser les fortes valeurs, un mod`ele d’image plus fin peut ˆetre envisag´ sur une base tr`es similaire. Les travaux ult´erieurs de Tikhonov [Tikhonov et Ars´enine, 1976, p.60] ont consist´e `a p´enaliser les irr´egularit´es locales par l’interm´ediaire du terme de p´enalisation d´efini par P(x) = Dx 2 (II.8)
R´egularisation par approches p´enalis´ees
D est une matrice de diff´erenciation d’ordre d. Le choix le plus r´epandu consiste `a utiliser la d´eriv´ee premi`ere (d = 1), ce qui a pour effet de favoriser l’apparition de zones uniformes au sein de l’image.
Lorsque la matrice HtH + λDtD est inversible, ce qui est en g´en´eral le cas car la condition ker H ∩ ker D = {0} est le plus souvent v´erifi´ee, l’´equation normale admet une unique solution d´efinie par
xˆ = arg min J (x) = (HtH + λDtD)−1Hty.
Cette solution satisfait au caract`ere bien pos´e, au sens de Hadamard. De plus, le param`etre de r´egularisation est en g´en´eral choisi de telle sorte que le conditionnement de la matrice HtH + λDtD soit meilleur (plus proche de l’unit´e) que celui de HtH. Ainsi, par rapport `a la solution g´en´eralis´ee, la robustesse est g´en´eralement augment´ee.
L’utilisation de crit`ere p´enalis´ avec p´enalisation quadratique s’av`ere limit´ee dans sa capacit´e `a restituer les discontinuit´es des images. Un effet de lissage syst´ematique des fronti`eres de l’image est observ´. Il en r´esulte un flou dont il est impossible de se d´ebarrasser quel que soit le r´eglage du param`etre de r´egularisation λ. Cette perte de r´esolution introduite par la p´enalisation quadratique est soulign´ee depuis maintenant pr`es de deux d´ecennies par la communaut´e du traitement des images ; voir par exemple [Geman et Reynolds, 1992, Sec. I.B]. Pour faire face `a cette perte de r´esolution, des approches restant dans l’esprit de la m´ethode de Tikhonov mais s’appuyant sur des p´enalisations non quadratiques pr´eservant les discontinuit´es ont et´ propos´ees en restauration d’images.
Avantages de la p´enalisation convexe
La convexit´ du crit`ere p´enalis´ J est conditionn´ee par le caract`ere convexe de la fonction de r´egularisation non quadratique. Si un crit`ere convexe a pour propri´et´ d’ˆetre unimodal, un crit`ere non convexe est en g´en´eral multimodal.
L’emploi de fonctions de r´egularisation ℓ2ℓ0 conduit syst´ematiquement a` un crit`ere J mul-timodal [Li, 1995, Sec. IV.B], [Blake, 1989, p. 3]. Ce caract`ere multimodal qu’entraˆıne l’usage de fonctions de r´egularisation non convexes a pour cons´equence un manque de robustesse de la solution. En effet, le crit`ere non convexe, de par ses multiples minima locaux pr´esente une forme d’instabilit´e de la solution xˆ par rapport aux donn´ees et aux param`etres de r´eglage. Cette instabilit´e est soulign´ee notamment dans [Bouman et Sauer, 1993, Sec. I.B]. Indiquons que cette instabilit´e est li´ee a` un aspect d´ecision induit par les fonctions de r´egularisation non convexes [Idier et Blanc-F´eraud, 2001, Sec. 6.3.2].
Ce manque de stabilit´e introduit par les fonctions de r´egularisation non convexes tient au fait que xˆ n’est pas une fonction continue des donn´ees ni des param`etres de r´eglage. En d’autres termes, la troisi`eme condition de Hadamard n’est pas satisfaite par xˆ, donc le probl`eme est en-core mal pos´e malgr´e la p´enalisation. Par contre, l’usage de fonctions de r´egularisation convexes ne pr´esente pas ces faiblesses et conduit `a un probl`eme bien pos´e.
Mˆeme s’il est possible de trouver un exemple en simulation o`u l’utilisation de fonctions de r´e-gularisation non convexes permet d’obtenir une solution plus proche de l’original que l’utilisation de fonctions de r´egularisation convexes, face a` des donn´ees r´eelles, le r´eglage des hyperpara-m`etres est rendu difficile par l’instabilit´e de la solution. Ainsi, il peut ˆetre pr´ef´erable d’utiliser dans un cadre r´eel des fonctions de r´egularisation convexes pour des raisons de robustesse. Il est int´eressant de noter que si initialement, les fonctions de r´egularisation non convexes introduites par [Geman et Geman, 1984] ont et´ largement utilis´ees avant les fonctions de r´egularisation convexes, un revirement est observ´ faisant du recours aux fonctions de r´egularisation convexes l’approche pr´epond´erante, a` la suite de travaux tels que [Bouman et Sauer, 1993].
En outre, la minimisation d’un crit`ere multimodal n´ecessite la mise en œuvre d’algorithmes d’optimisation autrement plus complexes et donc d’un coˆut calculatoire bien plus elev´ que la minimisation d’un crit`ere unimodal.
Estimation au sens du maximum de vraisemblance
Une fois obtenu le mod`ele probabiliste g´en´erateur des donn´ees, il reste a` d´eterminer l’esti-mateur de l’image. En statistique classique, l’estimateur du maximum de vraisemblance (MV) xM V = arg max V(y; x) est largement utilis´e en particulier pour ses bonnes propri´et´es asymptotiques – biais nul et va-riance minimale ; voir par exemple [Fourgeaud et Fuchs, 1972, Chap. 14]. L’estimateur du MV fait alors intervenir un probl`eme d’optimisation qu’il est courant d’aborder via une transforma-tion monotone logarithmique xM V = arg min − log V(y; x) x cette approche simplifiant g´en´eralement les expressions puisque la fonction exponentielle inter-vient couramment dans l’expression des densit´es de probabilit´e.
Maximum a posteriori et approches p´enalis´ees
En pratique, on se tourne souvent vers l’estimateur du maximum a posteriori pour r´esoudre un probl`eme d’inf´erence dans le cadre bay´esien. De mani`ere ´equivalente, on est alors amen´ a` consid´erer l’ensemble des minimiseurs de l’inverse de la log vraisemblance a posteriori SMAP = {x ∈ X, min JMAP(x)} (III.4)
JMAP(x) = − log VP (y; x) = − log V(y; x) − log fX (x).
Dans le cas du mod`ele (III.1) o`u la loi de densit´ du bruit est une gaussienne avec matrice de covariance unitaire, le crit`ere JMAP est de type moindres carr´es p´enalis´es JMAP(x) = 12 (y − Hx)2 − log fX (x).
Comme pour l’estimation au sens du MV, un lien fort peut g´en´eralement ˆetre ´etabli entre l’estimation du MAP et la r´egularisation par p´enalisation dans un cadre d´eterministe : sous r´eserve que l’on puisse ´etablir des liens tels que
− log V(y; x) ←→ Q(y; x)
− log fX (x) ←→ λP(x), λ > 0
alors l’ensemble des solutions SMAP correspond a` l’ensemble des solutions produites par la r´egularisation de Tikhonov g´en´eralis´ee.
Plus pr´ecis´ement, l’implication correspondant au passage de l’estimation du MAP a` une r´egularisation par p´enalisation peut toujours se faire. Par contre, la r´eciproque n’est pas toujours vraie. En effet, si le terme d’ad´equation Q d´ecoule g´en´eralement d’une loi de vraisemblance normalisable, un certain nombre de cas pratiques conduisent a` des lois a priori qui sont non normalisables. C’est par exemple ce qui se produit pour le choix tr`es r´epandu d’un a pirori p´enalisant la diff´erence entre paire de pixels P(x) = φ(xr − xs) r∼s
o`u r ∼ s d´ecrit un ensemble de couples de sites “spatialement voisins”. Lorsque x ∈ R, la loi exp {−P(x)/T } est non normalisable [Besag et al., 1995, Sec. 3],[Idier, 2001, Sec. 7.3.1].
Ad´equation robuste aux donn´ees
Jusqu’ici nous avons consid´er´ une approche p´enalis´ee o`u le terme d’ad´equation aux donn´ees est quadratique Q(y; x) = y − Hx 2.
Comme nous l’avons vu, ceci correspond `a une interpr´etation probabiliste o`u la loi de densit´ du bruit est une gaussienne. Bien que ce mod`ele soit extrˆemement courant, dans certaines situations ce mod`ele simple n’est pas totalement v´erifi´. Il peut alors ˆetre avantageux de changer de mod`ele et donc par cons´equent la nature de l’ad´equation aux donn´ees.
C’est en particulier le cas quand une loi de densit´ du bruit poissonnienne se r´ev`ele ˆetre plus adapt´ee qu’une gaussienne, en tomographie par exemple [Koulibaly et al., 1996]. C’est ´egalement le cas quand un certain nombre de donn´ees aberrantes ne suivent pas le mod`ele probabiliste initial. Ce type de probl`eme est pr´ecis´ement etudi´ en statistique robuste [Huber, 1981]. Cette approche propose l’utilisation d’une ad´equation robuste aux donn´ees aberrantes sous la forme suivante M Q(y; x) = φ (yi − hix) i=1 o`u {hi} sont les lignes de la matrice d’observation H. La fonction φ est une fonction robuste. Le lecteur notera que nous utilisons la mˆeme notation φ que pour la fonction de r´egularisation pr´eservant les discontinuit´es introduite dans le chapitre II. Ce choix de notation n’est pas inno-cent car il indique une certaine proximit´e entre ces deux usages. Si l’objectif pratique n’est pas le mˆeme, le fonctionnement sous-jacent est bien le mˆeme. Il s’agit de ne pas trop p´enaliser les fortes valeurs ; qu’elles correspondent a` des donn´ees aberrantes, ou bien a` de fortes diff´erences entre pixels indiquant des discontinuit´es a` pr´eserver. Il est donc tout a` fait possible d’envisager d’utiliser la mˆeme fonction φ a` la fois pour l’ad´equation aux donn´ees et pour la pr´eservation des discontinuit´es en traitement de l’image.
Il y a finalement assez peu de contributions en traitement de l’image ou du signal qui font appel a` une ad´equation robuste des donn´ees. On peut citer [Mazet et al., 2005] qui dans le cadre de la spectroscopie utilisent un crit`ere compos´e uniquement d’un terme d’ad´equation aux donn´ees, sans terme de p´enalisation car le probl`eme est bien pos´e. En image, [Nikolova, 2002] consid`ere une ad´equation robuste aux donn´ees avec un terme de p´enalisation pr´eservant les discontinuit´es.
Notons que le terme d’ad´equation robuste aux donn´ees peut ˆetre math´ematiquement incor-por´e dans le terme de p´enalisation en annulant la partie d’ad´equation quadratique. Ainsi, tous les r´esultats que nous obtiendrons dans les chapitres suivants sur le crit`ere p´enalis´ de la forme (II.15)-(II.16) pourront ˆetre utilis´es pour un crit`ere avec une ad´equation robuste aux donn´ees.
Mod`eles a priori sur les images
L’objectif du choix de la densit´ fX (x) est d’employer une classe de mod`eles pertinente vis-a`-vis de l’application et de charge calculatoire acceptable. Nous pr´esentons ci-dessous deux classes de mod`eles qui satisfont souvent en pratique a` ces deux imp´eratifs souvent contradictoires.
Champ de Gibbs-Markov
Champ de Markov
Un champ de Markov (MRF) est un champ al´eatoire dont les propri´et´es sont r´egies par des interactions locales. Plus pr´ecis´ement, la probabilit´e conditionnelle d’un point connaissant tous les autres points ne d´epend que des valeurs des points voisins. En supposant que le support de l’objet est un ensemble de sites S = {1, . . . , S}, on peut donner la d´efinition suivante [Br´emaud, 1999, Sec. 7.1].
D´efinition III.4.1 (Champ al´eatoire de Markov). On appelle “champ al´eatoire de Markov” associ´e a` S et a` un syst`eme de voisinage η tout champ X de support S tel que les densit´es de probabilit´e conditionnelles de ses el´ements Xi de coordonn´ees i v´erifient la relation suivante f (xi|xj , j ∈ Ω) = f (xi|xj , j ∈ ηi) pour tout sous-ensemble Ω de S contenant le voisinage ηi de i et ne contenant pas i.
Notons que les MRF sont particuli`erement utiles si le nombre de voisins est restreint car, dans ce cas, la description locale des interactions permet d’appliquer des m´ethodes de r´esolution a` charge calculatoire r´eduite.
Th´eor`eme de Hammersley-Clifford et champ de Gibbs
L’int´erˆet d’une formulation a` base de MRF serait finalement tr`es r´eduite si on ne pouvait ´ecrire la probabilit´e a priori fX (x) de l’objet sous une forme explicite et simple. Ceci est possible en faisant intervenir les potentiels de Gibbs : on introduit l’ensemble C constitu´e de C sous-ensembles de S, chaque el´ement de C ´etant appel´ une clique ; on donne alors la d´efinition suivante [Br´emaud, 1998, Sec. 7.2].
D´efinition III.4.2 (Champ al´eatoire de Gibbs). Sur un support fini S, on appelle “champ al´eatoire de Gibbs” (GRF) associ´e a` l’ensemble de clique C, un champ X dont la densit´ de probabilit´e est de la forme fX (x) = 1 exp −U(x)/T2 (III.5) o`u, Z2, T2 sont, respectivement, les constantes de normalisation et de temp´erature. U(x) est appel´ee la fonction d’´energie et s’´ecrit U(x) = Uc(x) avec Uc une fonction potentiel associ´ee `a la clique c.
Une formulation par champ de Gibbs pr´esente le gros avantage de donner directement acc`es a` la densit´ a priori, fX (x), par l’interm´ediaire de (III.5). Sous des hypoth`eses r´ealistes en trai-tement d’image, le th´eor`eme de Hammersley-Clifford [Winkler, 1995, Th. 3.3] ´etablit n´eanmoins l’´equivalence entre champ de Markov et champ de Gibbs. En pratique, on d´efinit alors souvent un MRF par sa densit´ de Gibbs ´equivalente, l’ensemble des cliques C d´ecoulant directement du syst`eme de voisinage consid´er´ par le MRF.
Mod`eles a priori sur les images
Conclusion
L’int´erˆet des MRF r´eside dans leur simplicit´e. N´eanmoins, certains r´esultats li´es a` l’estima-tion des hyperparam`etres laissent entendre que les MRF ne mod´elisent pas tr`es fid`element les images issues du monde r´eel [Descombes et al., 1999]. En particulier, ils ne sont pas toujours capables de mod´eliser correctement les images contenant des textures complexes. Par contre, une approche par ondelettes semble assez bien r´epondre a` cette exigence d’un mod`ele plus riche sans pour autant en accroˆıte consid´erablement la complexit´e [Moulin et Liu, 1999; Belge et al., 2000].
Ondelettes
Les mod`eles a priori `a base de MRF sont utilis´es dans le domaine des pixels de l’image. Il est possible d’utiliser un domaine diff´erent tel que celui des coefficients d’ondelettes de l’image. L’a priori consid´er´ est le mˆeme pour ces deux approches, `a savoir que l’image est suppos´ee ˆetre constitu´ee de zones homog`enes s´epar´ees par quelques discontinuit´es. La diff´erence entre ces deux mod`eles r´eside dans la fa¸con de tenir compte de cet a priori sur les images. Les approches par MRF appliquent cet a priori dans le domaine des pixels de l’image alors que les approches par ondelettes l’appliquent dans le domaine des coefficients d’ondelettes de l’image.
Selon certains auteurs [Belge et al., 2000; Jalobeanu et al., 2004], l’int´erˆet de travailler dans le domaine des coefficients d’ondelettes de l’image plutˆot que dans le domaine des pixels de l’image r´esiderait dans la qualit´e accrue de l’image restaur´ee. En particulier, l’approche par ondelettes permettrait une meilleure restauration des textures dans le cas d’images complexes.
L’approche par ondelettes d’un probl`eme de restauration d’image (d´econvolution) mod´elis´ par (III.1) peut se faire en se donnant un mod`ele probabiliste de la r´epartition des coefficients d’ondelettes de l’image [Belge et al., 2000; Jalobeanu et al., 2004]. Soit x l’image a` restaurer de taille m ×n avec 1 ≤ m, n ≤ 2J . Les coefficients de la transform´ee d’ondelettes 2D sont d´esign´es par xj de taille 2j × 2j avec j ∈ {0, . . . , J − 1} qui est le niveau de d´ecomposition d’ondelette.
Une mod´elisation classique consite `a consid´erer l’image comme une r´ealisation al´eatoire dont les coefficients de la transform´ee d’ondelettes xj (m, n) sont distribu´es selon une loi gaussienne g´en´eralis´ee (GG) de la forme [Mallat, 1989; Antonini et al., 1992; Moulin et Liu, 1999; Belge et al., 2000] 1 xj (m, n) p f (xj (m, n)|p, kj ) ∝ exp − pkj o`u 0 < p ≤ 2 est un param`etre d´eterminant la forme de la distribution et kj est un param`etre d’´echelle. Cette mod´elisation est bas´ee sur le fait que la GG, ayant une queue plus lourde que la gaussienne classique, d´ecrit mieux la distribution des coefficients de la transform´ee d’ondelette. En effet, les coefficients d’ondelettes sont principalement distribu´es vers z´ero, pour ce qui est de la contribution des zones homog`enes, et ont une queue lourde pour ce qui est de la contribution des discontinuit´es.
En consid´erant classiquement un mod`ele de bruit blanc gaussien, [Belge et al., 2000] propose d’utiliser l’estimateur du MAP qui peut s’´ecrire comme le minimiseur du crit`ere des moindres carr´es p´enalis´es suivant M J (x) = y − Hx 22 + λj Rj x pp (III.6)
Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.
|
Table des matières
I Introduction
I.1 Position du probl`eme
I.2 Contributions
I.3 Organisation du document
II Inversion par approches p´enalis´ees
II.1 Difficult´es de l’inversion
II.1.1 Probl`emes mal pos´es
II.1.2 Inversion g´en´eralis´ee
II.1.3 Manque de robustesse de l’inversion g´en´eralis´ee
II.2 R´egularisation par approches p´enalis´ees
II.2.1 Principe de la r´egularisation
II.2.2 R´egularisation au sens de Tikhonov
II.2.3 P´enalisations non quadratiques
II.2.4 Crit`ere p´enalis´e g´en´eralis´e
II.2.5 Interpr´etation intuitive du crit`ere p´enalis´e
II.3 Conclusion
III Interpr´etation probabiliste et inf´erence bay´esienne
III.1 Vraisemblance et ad´equation aux donn´ees
III.1.1 Estimation au sens du maximum de vraisemblance
III.2 Inf´erence bay´esienne
III.2.1 Vraisemblance a posteriori
III.2.2 Maximum a posteriori et approches p´enalis´ees
III.3 Ad´equation robuste aux donn´ees
III.4 Mod`eles a priori sur les images
III.4.1 Champ de Gibbs-Markov
III.4.2 Ondelettes
IV Minimisation des crit`eres p´enalis´es
IV.1 Le probl`eme d’optimisation
IV.1.1 Formulation du probl`eme
IV.1.2 Diff´erentiabilit´e du crit`ere p´enalis´e g´en´eralis´e
IV.1.3 Conditions d’optimalit´e
IV.2 M´ethodes it´eratives de minimisation
IV.2.1 Recherche it´erative de la solution
IV.2.2 Crit`ere d’arrˆet
IV.2.3 Qu’est-ce qu’un bon algorithme it´eratif ?
IV.3 M´ethodes it´eratives g´en´eriques
IV.3.1 Algorithmes de relaxation
IV.4 Algorithmes semi-quadratiques
IV.4.1 Principe
IV.4.2 Hypoth`eses sur la fonction de r´egularisation
IV.4.3 Construction de Geman et Reynolds
IV.4.4 Construction de Geman et Yang
IV.4.5 Algorithmes semi-quadratiques
IV.4.6 Interpr´etations des algorithmes semi-quadratiques
IV.4.7 Approximation quadratique majorante
IV.5 Conclusion
V Algorithmes semi-quadratiques approch´es
V.1 Difficult´es de l’inversion des matrices semi-quadratiques
V.2 Inversion approch´ee des matrices semi-quadratiques
V.2.1 Algorithme du gradient conjugu´e lin´eaire
V.2.2 Famille d’algorithmes SQ+GCP
V.3 Convergence des algorithmes SQ+GCP
V.4 Conclusion
VI Algorithmes du gradient conjugu´e non lin´eaire
VI.1 Algorithmes du gradient conjugu´e non lin´eaire
VI.1.1 Forme de Polak-Ribiere pr´econditionn´ee
VI.1.2 Recherche du pas par algorithmes SQ scalaires
VI.2 Comparaison structurelle entre algorithmes SQ et GCNL
VI.2.1 Le pas
VI.2.2 Le pr´econditionnement
VI.3 R´esultat de convergence
VI.3.1 Caract`ere gradient Lipschitz du crit`ere p´enalis´e g´en´eralis´e
VI.3.2 Coercivit´e du crit`ere p´enalis´e g´en´eralis´e
VI.3.3 Les hypoth`eses de l’annexe C sont v´erifi´ees
VI.3.4 Convergence sans conjugaison
VI.3.5 Convergence avec conjugaison
VI.3.6 Relaxation de l’hypoth`ese de coercivit´e ?
VI.4 Conclusion
VII Comparaison exp´erimentale de la vitesse de convergence
VII.1 Probl`eme de d´econvolution d’image
VII.2 Algorithmes compar´es
VII.2.1 Algorithmes SQ+GCP
VII.2.2 Algorithmes GCNL
VII.2.3 Pr´econditionnement
VII.3 Interpr´etation des r´esultats exp´erimentaux
VII.3.1 Algorithmes SQ+GCP
VII.3.2 Algorithmes GCNL
VII.3.3 Influence des param`etres θ et aGY
VII.3.4 Comparaison entre algorithmes SQ+GCP et GCNL
VII.4 Conclusion
VIII.1 Introduction
VIII.1.1 Contrˆole non destructif par ultrasons
VIII.1.2 Etat de l’art
VIII.1.3 Contributions
VIII.2 M´ethode propos´ee
VIII.2.1 Mod`ele direct
VIII.2.2 R´eflectivit´e estim´ee par utilisation d’a priori
VIII.2.3 Minimisation du crit`ere p´enalis´e 2D
VIII.3 R´esultats de la m´ethode
VIII.3.1 Proc´edure de recalage
VIII.3.2 Identification de l’ondelette 2D
VIII.3.3 R´esultats exp´erimentaux
VIII.4 Conclusion
IX Conclusion et perspectives 131
IX.1 Liens entre algorithmes SQ+GCP et Newton tronqu´e
IX.2 Lien entre algorithmes GCNL et m´ethodes `a m´emoire de gradient . . 131
IX.3 Pr´econditionnement variable pour les algorithmes GCNL
IX.4 La question de la simplicit´e
Annexes 135
A Bibliographie comment´ee sur les m´ethodes GCNL et la recherche du pas 139
A.1 Algorithmes GCNL
A.2 Recherche du pas
A.2.1 N´ecessit´e d’une recherche du pas
A.2.2 Conditions de Wolfe
A.3 R´esultats de convergence
B Preuves des r´esultats 143
B.1 Preuves du chapitre IV
B.1.1 Preuve du Lemme IV.4.1
B.1.2 Preuve du Lemme IV.4.4
B.1.3 Preuve du Lemme IV.4.5
B.2 Preuves du chapitre V
B.2.1 R´esultats pour l’algorithme GCP
B.2.2 Convergence pour un crit`ere g´en´eral
B.3 Preuves du chapitre VI
B.3.1 Preuve du Lemme VI.1.1
B.3.2 Preuve du Lemme VI.3.1
B.3.3 Preuve du Lemme VI.3.2
B.3.4 Preuve du Th´eor`eme VI.3.1
B.3.5 Preuve du Th´eor`eme VI.3.2
B.3.6 Preuve du Lemme VI.3.3
C Convergence of conjugate gradient methods with a closed-form stepsize formula
C.1 Introduction
C.3 Properties of the stepsize series
C.4 Global convergence
C.5 Discussion
C.5.1 The convex quadratic case
C.5.2 The general case
D R´esultats exp´erimentaux sur l’influence des param`etres θ et aGY 171
E D´econvolution aveugle de trains d’impulsions robuste `a l’ambigu¨ıt´e de d´ecalage temporel 175
R´ef´erences bibliographiques 18
Télécharger le rapport complet