Les algorithmes de classification courant

LES ALGORITHMES DE CLASSIFICATION COURANTย 

En tรฉlรฉdรฉtection, la classification dโ€™image est une technique dโ€™analyse des donnรฉes qui consiste partitionner lโ€™ensemble des pixels de la scรจne รฉtudiรฉe en plusieurs classes. Les pixels formant chaque classe prรฉsentent des valeurs suffisamment similaires pour รชtre considรฉrรฉs comme appartenant ร  une thรฉmatique unique. Lโ€™objectif principal de la classification est de traduire les informations spectrales en classes thรฉmatiques. Les mรฉthodes de classification peuvent รชtre sรฉparรฉes en deux catรฉgories : la classification non dirigรฉe et la classification dirigรฉe .

Classification non dirigรฉe :
Dans le cas de classification non dirigรฉe, on rรฉalise une classification de lโ€™image sans informations connues a priori ou quโ€™on ne souhaite pas exploiter dans la phase initiale dโ€™analyse. Donc, aucune information sur la zone dโ€™รฉtude nโ€™est introduite dans lโ€™algorithme. Pour ne pas avoir un rรฉsultat qui sera difficile ร  interprรฉter, lโ€™opรฉrateur introduit le nombre de classes dโ€™occupation du sol quโ€™il souhaite obtenir dans lโ€™image.

Il est cependant important de prรฉciser que les groupes produits par classification non dirigรฉe ne sont pas des catรฉgories thรฉmatiques mais des catรฉgories spectrales (c’est-ร -dire quโ€™elles regroupent les entitรฉs (pixels) qui ont des propriรฉtรฉs de luminance semblables). Il arrive donc souvent que lโ€™analyste ait besoin de reclassifier ces catรฉgories spectrales en catรฉgories thรฉmatiques (S.Rakotoniaina).

Classification dirigรฉe :
Lors de lโ€™utilisation dโ€™une mรฉthode de classification supervisรฉe, lโ€™analyste identifie des รฉchantillons homogรจnes de lโ€™image, reprรฉsentatifs des diffรฉrentes classes dโ€™objets (classes dโ€™information). Ces รฉchantillons forment un ensemble de donnรฉes dโ€™apprentissage. La sรฉlection de ces donnรฉes est basรฉe sur les connaissances de lโ€™analyste, sa familiaritรฉ avec la rรฉgion et les types dโ€™objets prรฉsents dans lโ€™image. Lโ€™analyste supervise donc la classification dโ€™oรน le nom de classification supervisรฉe (http://www.ccrs.nrcan.gc.ca/resource/tutor/fundam/ pdf/fundamentals_f.pdf).

Une classification supervisรฉe commence donc par lโ€™identification des classes spectrales contenues dans lโ€™image. Dans cette mรฉthode de classification il y deux grandes familles dโ€™algorithme de classification, ร  savoir les mรฉthodes non paramรฉtrique et paramรฉtrique : Un classificateur est dit paramรฉtrique sโ€™il associe ร  la signature spectrale une distribution statistique connue comme la loi normale ou multi normale. Cette association offre la possibilitรฉ dโ€™affecter ร  chaque pixel une probabilitรฉ dโ€™appartenance ร  une classe donnรฉe. Lโ€™algorithme le plus connu de cette approche est celui du maximum de vraisemblance (Caloz, R. ; Claude C. (2001)). Par contre, aucune distribution statistique nโ€™est exploitรฉe dans le cas dโ€™un classificateur non paramรฉtrique. Seule la distance spectrale est prise en compte. Un des classificateurs les plus connus pour cette catรฉgorie est lโ€™algorithme k-nn (K Nearest Neighboor) (Caloz, R. ; Collet C. (2001)). Les diffรฉrences entre ces types de classification rรฉsident dans leur capacitรฉ ร  tenir compte de la variabilitรฉ de lโ€™information. La qualitรฉ de la classification tient compte de certaines caractรฉristiques de lโ€™image telles que la rรฉsolution. Parmi les algorithmes de classification, celui du maximum de vraisemblance (MdV), de k-Nearest Neighbor (k-NN) et celui de Support Vector Machine (SVM) sont les plus frรฉquemment utilisรฉs.

Mรฉthode de maximum de vraisemblance

La classification de maximum de vraisemblance est une approche paramรฉtrique qui pose comme une hypothรจse la distribution gaussienne des classes constituant les zones dโ€™entraรฎnement. Les paramรจtres statistiques (moyenne, matrice de covariance) nรฉcessaires ร  la classification sont calculรฉs pour chaque classe dans chaque bande. La mรฉthode utilise le principe de Bayes qui consiste ร  calculer la probabilitรฉ dโ€™appartenance dโ€™un pixel ร  une classe. Chaque pixel est assignรฉ ร  la classe pour qui il a la probabilitรฉ la plus รฉlevรฉe (c’est-ร -dire, le maximum de vraisemblance). Si la probabilitรฉ la plus รฉlevรฉe est plus petite quโ€™un seuil minimal le pixel reste non classifiรฉ (Richard. ; Jia, 1999). Rappelons que la densitรฉ de probabilitรฉ pour une variable alรฉatoire continue de distribution normale sโ€™รฉcrit .

Mรฉthode du k-plus proche voisin ou k-nearest neighbor

La mรฉthode de classification non paramรฉtrique : k nearest neighbour (kNN) a รฉtรฉ introduite en 1967 par Cover et Hart (Cover & Hart, 1967). Supposons que lโ€™on a une image ร  classifier suivant c classes. La mรฉthode des k plus proches voisins assigne un pixel inconnu x ร  la classe Ci (i appartient dans lโ€™intervalle [0,c]) si la classe majoritaire dans les k voisins les plus proches de x est la classe Ci . Le calcul qui sโ€™effectue sur tous les pixels appartenant ร  la zone dโ€™apprentissage utilisรฉe la notion de distance spectrale. Cette procรฉdure de classification dรฉpend de deux paramรจtres principaux : le nombre k de voisins les plus proches considรฉrรฉ et la mรฉtrique utilisรฉ pour calculer la distance. Le principe de la classification par la mรฉthode des k plus proches voisins est schรฉmatisรฉ sur la figure 1. Sur cet exemple, si k=1, la classe dโ€™affectation de x est รฉgale ร  1 (Figure 1a) tandis quโ€™elle sera รฉgale ร  2 si k = 3 (Figure 1). Le principe de cette mรฉthode est assez simple mais sa mise en ล“uvre demande un temps de calcul assez long.

Mรฉthode par Sรฉparateur ร  Vaste Marge (SVM)

Les sรฉparateurs ร  vastes marges sont des classificateurs paramรฉtriques qui reposent sur deux idรฉes importantes permettant de traiter des problรจmes de discrimination non-linรฉaire et de reformuler le problรจme de classement comme un problรจme d’optimisation quadratique. La premiรจre idรฉe est la notion de marge maximale. La marge est la distance entre la frontiรจre de sรฉparation et les รฉchantillons les plus proches. Ces derniers sont appelรฉs vecteurs supports. Dans lโ€™algorithme SVM, la frontiรจre de sรฉparation est choisie comme รฉtant celle qui maximise la marge. Ce choix est justifiรฉ par la thรฉorie de Vapnik-Chervonenkis ou thรฉorie statistique de l’apprentissage ( Valiant, 1984), qui montre la frontiรจre de sรฉparation de marge maximale ( Marti , 1998).

Le problรจme est de trouver cette frontiรจre sรฉparatrice optimale, ร  partir d’un ensemble d’apprentissage. Ceci est fait en formulant le problรจme comme un problรจme d’optimisation quadratique, pour lequel il existe des algorithmes connus. Afin de pouvoir traiter des cas oรน les donnรฉes ne sont pas linรฉairement sรฉparables, la deuxiรจme idรฉe sur laquelle sโ€™appuie SVM consiste ร  transformer l’espace de reprรฉsentation des donnรฉes d’entrรฉe en un espace de plus grande dimension (pouvant รชtre de dimension infinie), dans lequel il est probable qu’il existe un sรฉparateur linรฉaire. Ceci est rรฉalisรฉ grรขce ร  une fonction noyau. Cette fonction doit respecter certaines conditions ce quโ€™on appelle condition de Mercer. Elle a l’avantage de ne pas nรฉcessiter de connaissance explicite de la transformation ร  appliquer pour le changement d’espace. Les fonctions noyaux permettent de transformer un produit scalaire dans un espace de grande dimension, ce qui est coรปteux, en une simple รฉvaluation ponctuelle d’une fonction. Cette technique est connue sous le nom de kernel trick (Bernhard S., et al 2002) .

Le rapport de stage ou le pfe est un document dโ€™analyse, de synthรจse et dโ€™รฉvaluation de votre apprentissage, cโ€™est pour cela chatpfe.com propose le tรฉlรฉchargement des modรจles complet de projet de fin dโ€™รฉtude, rapport de stage, mรฉmoire, pfe, thรจse, pour connaรฎtre la mรฉthodologie ร  avoir et savoir comment construire les parties dโ€™un projet de fin dโ€™รฉtude.

Table des matiรจres

INTRODUCTION GENERALE
CHAPITRE I : LES ALGORITHMES DE CLASSIFICATION COURANT
I.1 Introduction
I.2 Mรฉthode de maximum de vraisemblance
I.3 Mรฉthode du k-plus proche voisin ou k-nearest neighbor
I.4. Mรฉthode par Sรฉparateur ร  Vaste Marge (SVM)
CHAPITRE II : CLASSIFICATION Dโ€™IMAGE PAR METHODE ORIENTEE OBJET DES IMAGES
II.1 Introduction de la classification orientรฉe objet
II.2 La segmentation dโ€™image
II.2.1 Introduction
II.2.2 Segmentation par contour
II.2.3 segmentation par rรฉgion
II.3 Classification des objets
II.3.1 Classification supervisรฉe
II.3.2 Classification par rรจgle
CHAPITRE III : SITUATION DE LA ZONE Dโ€™ETUDE
III.1 Localisation
III.1.1.Description administrative
III.1.2.Description physique
III.1.3. milieu humain
III.2. Forรชt et vรฉgรฉtation
III.2.1 Forรชt
III.2.2 Vรฉgรฉtation
III.3. Donnรฉes
III.3.1. Images satellitaires
CHAPITRE IV : RESULTAT
IV.1. Dรฉfinition des classes
IV.2. Classification par les mรฉthodes basรฉes sur les valeurs individuelles des pixels
IV.2.1 Classification par MdV
IV.2.2 Classification par K-nn
V.2.3 Classification par SVM
IV.3. Classification par mรฉthode orientรฉe-objet
IV.2.2. Classification des objets
CHAPITRE V : DISCUSSION
VI.1.Matrices de confusion des images classifiรฉes avec les mรฉthodes ร  base de pixels
VI.2.Discussion de la classification par pixel
VI.3. Matrice de confusion des images classifiรฉes par mรฉthodes orientรฉes-objet
VI.4.Discussion de la classification par orientรฉe objet
VI.5 Discussion globale
CONCLUSION Gร‰Nร‰RALE
ANNEXE
Table des matiรจres
Rร‰Fร‰RENCES

Lire le rapport complet

Tรฉlรฉcharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiรฉe. Les champs obligatoires sont indiquรฉs avec *