Le domaine de l’imagerie est l’un des axes de recherche le plus répandu actuellement. Il a connu ces derniers temps des évolutions majeures. Ces évolutions sont surtout liées tant à la multiplicité des techniques qu’à l’exploitation des images produites.
L’imagerie est utilisée dans plusieurs applications comme :
• l’analyse et la recherche d’information : imagerie médicale, télédétection, …
• la présentation d’information : télévision, publicité, …
• l’amélioration du transfert d’information appliquée à la vidéoconférence ou aux sites web.
Représentation de la couleur dans les images numériques
Afin de pouvoir coder des images en couleur, nous avons besoin d’étudier au préalable comment on exprime de manière générale la couleur numériquement. Nous voulons aussi effectuer des opérations sur des images en utilisant différents espaces couleurs, cependant nous analyserons comprendre comment s’opèrent les transitions numériques entre ces différents espaces.
Principe
Dans le cas général, la couleur d’un pixel va être représentée par trois composantes notées C1, C2 et C3, et à ces trois composantes nous faisons correspondre respectivement trois vecteurs directeurs normésOC1 , OC2 et OC3 qui forment le repère d’un espace vectoriel d’origine O appelé espace couleur. Dans cet espace, chaque couleur est ainsi représentée par un point C, qui définit le vecteur couleur OC et dont les coordonnées sont les valeurs de composantes C1, C2 et C3.
L’espace RVB
L’espace de couleurs RVB (Rouge, Vert et Bleu) demeure le plus répandu. En effet, il est implémenté dans la plupart des outils matériels de visualisation : écran, vidéoprojecteur, imprimante, …. Dans cet espace, un pixel est codé par trois composantes Rouge, Vert et Bleu, à valeurs à l’intérieur d’un cube . Cet espace a été développé en fonction des connaissances liées à la vision humaine, les cônes étant plus sensibles à ces trois couleurs. Ce modèle est additif, ce qui signifie que toutes les couleurs sont déduites à partir du noir (R=V=B=0) en ajoutant plus ou moins certaines composantes . Dans cet espace, chaque composante est donc définie par une valeur entre 0 et 255. De ce fait elles doivent être normalisées de la même façon, ce qui est quelquefois contraignant. Le principal inconvénient de ce modèle réside dans la manipulation même des couleurs. En effet, si on veut augmenter la luminosité d’une couleur, il faut incrémenter proportionnellement chaque composante étant donnée la corrélation entre les plans R, V et B. Ces contraintes font du modèle additif des couleurs (RVB), un espace de couleurs peu approprié à la représentation d’images multicomposantes sous la forme d’une image de couleurs.
L’espace TSL
L’espace colorimétrique TSL (Teinte, Saturation, Luminance) a été développé pour offrir une manipulation intuitive des couleurs et permettre une sélection manuelle facile dans les applications interactives de type PAO (Publication Assistée par Ordinateur). Il permet de décomposer une couleur en trois critères physiologiques :
– la teinte qui correspond à la perception de la couleur, 0 ≤ T ≤ 360 ;
– la saturation qui correspond à la pureté de la couleur (vif ou terne), 0 ≤ S ≤ 1 ;
– la luminance correspondant à la quantité de lumière de la couleur (clair ou sombre), 0 ≤ L ≤ 1.
Le modèle de couleurs TSL est utilisé pour la manipulation de la teinte et de la saturation car il permet de modifier directement ces valeurs (contrairement au modèle RVB). Le principal avantage de cet espace est que chacune de ses composantes est reliée à une grandeur physique facilement interprétable visuellement. Ainsi augmenter la luminosité d’une couleur se fera uniquement en augmentant la composante L. Cette propriété permet de s’affranchir de la corrélation entre la teinte, la luminance et la saturation et offre ainsi un contrôle plus souple dans la manipulation des couleurs.
Filtrage d’images numériques
Principes généraux
Dans l’imagerie, le filtrage est utilisé :
– pour réduire le bruit dans l’image ;
– pour détecter les contours d’une image ;
– pour faire l’opération de voisinage qui effectue une combinaison linéaire (ou non) de pixels de l’image I, produisant une nouvelle image I’ .
Par définition, un bruit est un phénomène parasite aléatoire suivant une distribution de probabilité connue ou non dont les origines sont diverses : capteur, acquisition, lumière, … Dans le cas du filtrage linéaire, on considère que le bruit est additif, c’est-à-dire si Ib est l’image bruité alors on peut l’écrire sous la forme :
Ib(i, j) = I (i, j) + b(i, j) (1.1)
Avec I l’image originale et b le bruit.
Filtrage fréquentiel
Définition et principe
Le filtrage fréquentiel a pour but de garder ou de supprimer des fréquences de l’image à l’aide d’un filtre. C’est le produit entre les spectres de l’image et du filtre .
Le principe général du filtrage fréquentiel suit les étapes suivantes :
– Calculer la transformée de Fourier X(f ) du signal x(t) à filtrer ;
– Calculer la transformée de Fourier F(f ) du filtre f (t) ;
– Multiplier les spectres Xfiltré(f ) = X(f )H(f ) ;
– Calculer la transformée de Fourier inverse du spectre obtenu pour obtenir le signal filtré xfiltré(t) .
Il y a trois familles dans le filtrage fréquentiel : le filtrage passe-bas, le filtrage passe-haut et le filtrage passe-bande.
Filtrage passe-bas
Un filtre passe-bas idéal est un système linéaire ne modifiant pas ou peu les basses fréquences de l’image d’entrée. Ainsi les basses fréquences et la fréquence fondamentale sont conservées c’est-à-dire que l’information d’intensité est restituée lors de la reconstruction de l’image. Les hautes fréquences sont par contre éliminées : les changements brusques d’intensité, tels les bruits ou les frontières, sont atténués voire éliminés ; on parle d’étalement des frontières dans ce cas. On obtient alors une image reconstruite qui présente du flou sur le contour.
Filtrage passe-haut
Un filtre passe-haut est un système linéaire ne modifiant pas ou peu les hautes fréquences de l’image d’entrée. Dans ce cas, les basses fréquences et la fréquence fondamentale sont éliminées car l’information d’intensité est enlevée lors de la reconstruction de l’image. Les hautes fréquences quant à elles, sont préservées c’est à dire que les changements brusques d’intensité sont mis en évidence. Dans ce cas, l’image reconstruite n’a plus ses couleurs mais le contour est net.
Filtre passe-bande
Un filtre passe-bande est complémentaire d’un filtre passe-bas et d’un filtre passe-haut. C’est un système linéaire qui préserve une plage de fréquences. L’image reconstruite est alors une combinaison d’un nombre réduit d’images de base.
|
Table des matières
INTRODUCTION
CHAPITRE 1 REGLE DE L’ART
1.1 Représentation de la couleur dans les images numériques
1.1.1 Principe
1.1.2 L’espace RVB
1.1.3 L’espace TSL
1.2 Filtrage d’images numériques
1.2.1 Principes généraux
1.2.2 Filtrage spatial linéaire
1.2.2.1 Produit de convolution
1.2.2.2 Lissage par moyennage
1.2.2.3 Lissage gaussien
1.2.3 Filtrage fréquentiel
1.2.3.1 Définition et principe
1.2.3.2 Filtrage passe-bas
1.2.3.3 Filtrage passe-haut
1.2.3.4 Filtre passe-bande
1.3 Corps non commutatif des quaternions ( , +, x)
1.3.1 Définition de l’ensemble
1.3.2 Opérations sur
1.3.2.1 Addition
1.3.2.2 Multiplication
1.3.2.3 Conjugaison
1.3.2.4 Module
1.3.2.5 Inverse
1.3.3 Représentation des quarternions
1.3.3.1 Représentation cartésienne
1.3.3.2 Représentation scalaire-vecteur
1.3.3.3 Représentation polaire
1.3.3.4 Représentation de Cayley-Dickson
1.3.3.5 Représentation symplectique
1.3.3.6 Représentation matricielle des quaternions
1.3.4 Quaternion et rotation dans l’espace
1.3.5 Autres transformations géométriques
1.3.6 Matrice quaternionique
1.3.6.1 Définition
1.3.6.2 Multiplication de deux matrices
1.3.7 Domaines d’application des quaternions
1.4 Codage quaternionique des images couleurs
1.4.1 Definition
1.4.2 Séparation en partie simplexe et partie perplexe
1.4.3 Transformations couleur
CHAPITRE 2 DETECTION DE CONTOUR PAR ALGEBRE QUATERNIONIQUE
2.1 Définition
2.2 Les approches classiques
2.2.1 Méthodes marginales
2.2.2 Méthodes vectorielles
2.2.3 Méthodes perceptuelles
2.3 Les approches quaternioniques
2.3.1 Filtrage quaternionique
2.3.1.1 Quaternion convolution
2.3.1.2 Lissage des images couleur
2.3.2 L’approche quaternionique de Sangwine
2.3.3 Détection de contours par maximum de distance couleur
2.4 Mis en algorithme de la détection de contour quaternionique
2.4.1 Les étapes de l’algorithme
2.4.2 Mise en œuvre sur MATLAB
2.5 Amélioration de la détection de contours en utilisant un repère contenant Ugris
2.5.1 Preuve sur la performance
2.5.2 Description de l’algorithme correspondant
CHAPITRE 3 ANALYSE EN COMPOSANTES PRINCIPALES QUATERNIONIQUE
3.1 Définition
3.2 Décomposition en Valeurs Singulières quaternionique
3.2.1 Théorème sur l’existence d’un SVD d’une matrice quaternionique
3.2.2 Equivalence d’une matrice quaternionique en matrice complexe
3.2.3 SVD d’une matrice complexe
3.2.4 Théorème sur la relation entre les matrices SVDQ et SVD complexe équivalent
3.3 Transformation Karhunen-Loeve Quaternionique
3.3.1 Diagonalisation de matrices de quaternions
3.3.2 Diagonalisation de la matrice de convariance
3.3.3 Projection de l’image sur les vecteurs propres
3.4 Interprétations et applications
3.4.1 Interprétations géométriques
3.4.2 Décomposition de l’image « Eigen-image »
3.4.3 Compression d’image
3.4.3.1 Définition et objectif
3.4.3.2 Les méthodes de codage pixel
3.4.3.3 Les méthodes de codage global
3.4.3.4 La reconstruction de l’image par SVDQ
3.4.3.5 L’analyse des images reconstruites
3.4.4 Amélioration d’image « Image enhancement »
CONCLUSION
ANNEXE