LES ALGORITHMES DE CLASSIFICATION COURANTย
En tรฉlรฉdรฉtection, la classification dโimage est une technique dโanalyse des donnรฉes qui consiste partitionner lโensemble des pixels de la scรจne รฉtudiรฉe en plusieurs classes. Les pixels formant chaque classe prรฉsentent des valeurs suffisamment similaires pour รชtre considรฉrรฉs comme appartenant ร une thรฉmatique unique. Lโobjectif principal de la classification est de traduire les informations spectrales en classes thรฉmatiques. Les mรฉthodes de classification peuvent รชtre sรฉparรฉes en deux catรฉgories : la classification non dirigรฉe et la classification dirigรฉe .
Classification non dirigรฉe :
Dans le cas de classification non dirigรฉe, on rรฉalise une classification de lโimage sans informations connues a priori ou quโon ne souhaite pas exploiter dans la phase initiale dโanalyse. Donc, aucune information sur la zone dโรฉtude nโest introduite dans lโalgorithme. Pour ne pas avoir un rรฉsultat qui sera difficile ร interprรฉter, lโopรฉrateur introduit le nombre de classes dโoccupation du sol quโil souhaite obtenir dans lโimage.
Il est cependant important de prรฉciser que les groupes produits par classification non dirigรฉe ne sont pas des catรฉgories thรฉmatiques mais des catรฉgories spectrales (c’est-ร -dire quโelles regroupent les entitรฉs (pixels) qui ont des propriรฉtรฉs de luminance semblables). Il arrive donc souvent que lโanalyste ait besoin de reclassifier ces catรฉgories spectrales en catรฉgories thรฉmatiques (S.Rakotoniaina).
Classification dirigรฉe :
Lors de lโutilisation dโune mรฉthode de classification supervisรฉe, lโanalyste identifie des รฉchantillons homogรจnes de lโimage, reprรฉsentatifs des diffรฉrentes classes dโobjets (classes dโinformation). Ces รฉchantillons forment un ensemble de donnรฉes dโapprentissage. La sรฉlection de ces donnรฉes est basรฉe sur les connaissances de lโanalyste, sa familiaritรฉ avec la rรฉgion et les types dโobjets prรฉsents dans lโimage. Lโanalyste supervise donc la classification dโoรน le nom de classification supervisรฉe (http://www.ccrs.nrcan.gc.ca/resource/tutor/fundam/ pdf/fundamentals_f.pdf).
Une classification supervisรฉe commence donc par lโidentification des classes spectrales contenues dans lโimage. Dans cette mรฉthode de classification il y deux grandes familles dโalgorithme de classification, ร savoir les mรฉthodes non paramรฉtrique et paramรฉtrique : Un classificateur est dit paramรฉtrique sโil associe ร la signature spectrale une distribution statistique connue comme la loi normale ou multi normale. Cette association offre la possibilitรฉ dโaffecter ร chaque pixel une probabilitรฉ dโappartenance ร une classe donnรฉe. Lโalgorithme le plus connu de cette approche est celui du maximum de vraisemblance (Caloz, R. ; Claude C. (2001)). Par contre, aucune distribution statistique nโest exploitรฉe dans le cas dโun classificateur non paramรฉtrique. Seule la distance spectrale est prise en compte. Un des classificateurs les plus connus pour cette catรฉgorie est lโalgorithme k-nn (K Nearest Neighboor) (Caloz, R. ; Collet C. (2001)). Les diffรฉrences entre ces types de classification rรฉsident dans leur capacitรฉ ร tenir compte de la variabilitรฉ de lโinformation. La qualitรฉ de la classification tient compte de certaines caractรฉristiques de lโimage telles que la rรฉsolution. Parmi les algorithmes de classification, celui du maximum de vraisemblance (MdV), de k-Nearest Neighbor (k-NN) et celui de Support Vector Machine (SVM) sont les plus frรฉquemment utilisรฉs.
Mรฉthode de maximum de vraisemblance
La classification de maximum de vraisemblance est une approche paramรฉtrique qui pose comme une hypothรจse la distribution gaussienne des classes constituant les zones dโentraรฎnement. Les paramรจtres statistiques (moyenne, matrice de covariance) nรฉcessaires ร la classification sont calculรฉs pour chaque classe dans chaque bande. La mรฉthode utilise le principe de Bayes qui consiste ร calculer la probabilitรฉ dโappartenance dโun pixel ร une classe. Chaque pixel est assignรฉ ร la classe pour qui il a la probabilitรฉ la plus รฉlevรฉe (c’est-ร -dire, le maximum de vraisemblance). Si la probabilitรฉ la plus รฉlevรฉe est plus petite quโun seuil minimal le pixel reste non classifiรฉ (Richard. ; Jia, 1999). Rappelons que la densitรฉ de probabilitรฉ pour une variable alรฉatoire continue de distribution normale sโรฉcrit .
Mรฉthode du k-plus proche voisin ou k-nearest neighbor
La mรฉthode de classification non paramรฉtrique : k nearest neighbour (kNN) a รฉtรฉ introduite en 1967 par Cover et Hart (Cover & Hart, 1967). Supposons que lโon a une image ร classifier suivant c classes. La mรฉthode des k plus proches voisins assigne un pixel inconnu x ร la classe Ci (i appartient dans lโintervalle [0,c]) si la classe majoritaire dans les k voisins les plus proches de x est la classe Ci . Le calcul qui sโeffectue sur tous les pixels appartenant ร la zone dโapprentissage utilisรฉe la notion de distance spectrale. Cette procรฉdure de classification dรฉpend de deux paramรจtres principaux : le nombre k de voisins les plus proches considรฉrรฉ et la mรฉtrique utilisรฉ pour calculer la distance. Le principe de la classification par la mรฉthode des k plus proches voisins est schรฉmatisรฉ sur la figure 1. Sur cet exemple, si k=1, la classe dโaffectation de x est รฉgale ร 1 (Figure 1a) tandis quโelle sera รฉgale ร 2 si k = 3 (Figure 1). Le principe de cette mรฉthode est assez simple mais sa mise en ลuvre demande un temps de calcul assez long.
Mรฉthode par Sรฉparateur ร Vaste Marge (SVM)
Les sรฉparateurs ร vastes marges sont des classificateurs paramรฉtriques qui reposent sur deux idรฉes importantes permettant de traiter des problรจmes de discrimination non-linรฉaire et de reformuler le problรจme de classement comme un problรจme d’optimisation quadratique. La premiรจre idรฉe est la notion de marge maximale. La marge est la distance entre la frontiรจre de sรฉparation et les รฉchantillons les plus proches. Ces derniers sont appelรฉs vecteurs supports. Dans lโalgorithme SVM, la frontiรจre de sรฉparation est choisie comme รฉtant celle qui maximise la marge. Ce choix est justifiรฉ par la thรฉorie de Vapnik-Chervonenkis ou thรฉorie statistique de l’apprentissage ( Valiant, 1984), qui montre la frontiรจre de sรฉparation de marge maximale ( Marti , 1998).
Le problรจme est de trouver cette frontiรจre sรฉparatrice optimale, ร partir d’un ensemble d’apprentissage. Ceci est fait en formulant le problรจme comme un problรจme d’optimisation quadratique, pour lequel il existe des algorithmes connus. Afin de pouvoir traiter des cas oรน les donnรฉes ne sont pas linรฉairement sรฉparables, la deuxiรจme idรฉe sur laquelle sโappuie SVM consiste ร transformer l’espace de reprรฉsentation des donnรฉes d’entrรฉe en un espace de plus grande dimension (pouvant รชtre de dimension infinie), dans lequel il est probable qu’il existe un sรฉparateur linรฉaire. Ceci est rรฉalisรฉ grรขce ร une fonction noyau. Cette fonction doit respecter certaines conditions ce quโon appelle condition de Mercer. Elle a l’avantage de ne pas nรฉcessiter de connaissance explicite de la transformation ร appliquer pour le changement d’espace. Les fonctions noyaux permettent de transformer un produit scalaire dans un espace de grande dimension, ce qui est coรปteux, en une simple รฉvaluation ponctuelle d’une fonction. Cette technique est connue sous le nom de kernel trick (Bernhard S., et al 2002) .
|
Table des matiรจres
INTRODUCTION GENERALE
CHAPITRE I : LES ALGORITHMES DE CLASSIFICATION COURANT
I.1 Introduction
I.2 Mรฉthode de maximum de vraisemblance
I.3 Mรฉthode du k-plus proche voisin ou k-nearest neighbor
I.4. Mรฉthode par Sรฉparateur ร Vaste Marge (SVM)
CHAPITRE II : CLASSIFICATION DโIMAGE PAR METHODE ORIENTEE OBJET DES IMAGES
II.1 Introduction de la classification orientรฉe objet
II.2 La segmentation dโimage
II.2.1 Introduction
II.2.2 Segmentation par contour
II.2.3 segmentation par rรฉgion
II.3 Classification des objets
II.3.1 Classification supervisรฉe
II.3.2 Classification par rรจgle
CHAPITRE III : SITUATION DE LA ZONE DโETUDE
III.1 Localisation
III.1.1.Description administrative
III.1.2.Description physique
III.1.3. milieu humain
III.2. Forรชt et vรฉgรฉtation
III.2.1 Forรชt
III.2.2 Vรฉgรฉtation
III.3. Donnรฉes
III.3.1. Images satellitaires
CHAPITRE IV : RESULTAT
IV.1. Dรฉfinition des classes
IV.2. Classification par les mรฉthodes basรฉes sur les valeurs individuelles des pixels
IV.2.1 Classification par MdV
IV.2.2 Classification par K-nn
V.2.3 Classification par SVM
IV.3. Classification par mรฉthode orientรฉe-objet
IV.2.2. Classification des objets
CHAPITRE V : DISCUSSION
VI.1.Matrices de confusion des images classifiรฉes avec les mรฉthodes ร base de pixels
VI.2.Discussion de la classification par pixel
VI.3. Matrice de confusion des images classifiรฉes par mรฉthodes orientรฉes-objet
VI.4.Discussion de la classification par orientรฉe objet
VI.5 Discussion globale
CONCLUSION GรNรRALE
ANNEXE
Table des matiรจres
RรFรRENCES