Estimation des Paramètres Optimaux d’un Modèle Gaussien Mixte pour la Classification de Formes
Introduction générale
La Reconnaissance De Formes (RDF) est la discipline dont le but est la classification d’objets en nombre de catégories ou classes. Selon l’application, ces objets peuvent êtres des images, des signaux ou tout autres mesures ayant besoin d’être classés. La reconnaissance de formes possède une longue histoire mais avant 1960 elle était le résultat de recherches théoriques dans le domaine des statistiques. Comme pour d’autres disciplines, l’avènement des calculateurs a augmenté la demande d’applications pratiques de reconnaissance de formes, qui en retour a imposé de nouvelles exigences pour les développements théoriques. Comme notre société évolue depuis sa phase industrielle à sa phase postindustrielle, l’automatisation en production industrielle ainsi que le besoin de retrouver et de traiter l’information devient d’une importance capitale. Cette tendance a poussé la reconnaissance de formes à la pointe des applications et de la recherche en ingénierie.
La reconnaissance de formes est une partie intégrale des systèmes d’intelligence machine construits pour la prise de décision. La vision machine est un domaine où la reconnaissance de formes possède une très grande importance. La reconnaissance de caractères est un domaine important qui fait appel à la reconnaissance de formes. Le diagnostic assisté par ordinateur est une autre application importante de la reconnaissance de formes visant à assister les médecins à diagnostiquer et à prendre les bonnes décisions. La reconnaissance de la parole, elle aussi intègre la reconnaissance de forme par un traitement de la voix.
Théorie de décision de Bayes
Supposons que nous avons une tâche de classification pour K classes, 1, 2, . . ., K,et une forme inconnue qui est représentée par un vecteur de caractéristiques x. Nous créons K probabilités conditionnelles P(i x), i = 1, 2, . . . , K, appelées parfois probabilités a posteriori. Chacune d’entre-elles représente la probabilité qu’une forme appartienne à la classe respective i sachant que le vecteur de caractéristique correspondant prends la valeur x [1]-[4].En effet, les classificateurs à considérer, calculent le maximum pour les K valeurs. La forme inconnue sera assignée à la classe correspondant à ce maximum. Nous allons initialement nous concentrer sur le cas de deux classes. Soit 1, 2 les deux classes auxquelles nos formes appartiennent. En conséquence, nous supposons raisonnable puisque même si elles ne sont pas connues, elles peuvent être facilement estimées depuis les vecteurs de caractéristiques d’apprentissage disponibles. En effet,si N est le nombre total de formes d’apprentissage disponibles et N1, N2 sont ceux de celles appartenant aux classes 1 et 2 respectivement, alors : P(1) ≈ N1/N et P(2) ≈ N2/N.
Conclusion
En général, l’opération de reconnaissance comprend deux étapes :
Etape d’extraction de caractéristiques (ou primitives), dont le but est de réduire la
quantité de données.
Etape de classification qui consiste à associer une description symbolique à l’objet, sur la base de ses caractéristiques.
Les caractéristiques sont choisies de manière à ce qu’elles soient semblables pour les formes d’une même classe et dissemblables pour des formes de classes différentes. Au cours de ce chapitre, quelques notions de bases pour la classification ont bien été exposées. Nous pouvons conclure ce chapitre par cette distinction :
– L’espace d’observation (ou espace des données). Il contient beaucoup d’information redondante. L’information originale (image numérique, signal, etc.), fait partie de cet espace.
– L’espace de représentation (ou espace des caractéristiques). Il permet de représenter les caractéristiques. Il contient l’information jugée pertinente.
– L’espace d’interprétation (ou espace des classes ou catégories). Il est le domaine qui permet de représenter le résultat de la reconnaissance de formes. Il est en général très petit, souvent un ensemble fini d’étiquettes ou labels. Maintenant, nous allons poursuivre avec le chapitre deux, où nous allons exposer les techniques d’estimation des paramètres optimaux pour fonctions de densité de probabilité inconnues.
|
Table des matières
Introduction Générale
Chapitre I : Définitions de Base pour la Classification
I. 1. Introduction
I. 2. Caractéristiques, vecteurs caractéristiques et classificateurs
I. 3. Théorie de décision de Bayes
I. 4. Classification de Bayes pour distribution gaussiennes ou normales
I. 4. 1. Fonction de densité de probabilité de Gauss
I. 4. 2. Classificateur de Bayes pour classes à distribution normale
I. 4. 3. Classificateur à distance minimale
I. 5. Conclusion
Chapitre II : Estimation des Fonctions de Densité de Probabilité Inconnues
II. 1. Introduction
II. 2. Estimation de paramètres par le maximum de vraisemblance
II. 3. Estimation de la probabilité a posteriori maximale (MAP)
II. 4. Inférence Bayésienne
II. 5. Estimation de l’entropie maximum
II. 6. Modèles mixtes ou mélanges
II. 7. Algorithme d’espérance-maximisation (EM)
II. 8. Application au problème de modélisation mixte
II. 9. Conclusion
Chapitre III : Résultats
III. 1. Introduction
III. 2. Modèles mixtes
III. 2. 1. Poids de membres
III. 2. 2. Modèles mixtes gaussiens
III. 3. Algorithme Espérance Maximisation pour modèles mixtes gaussiens
III. 4. Initialisation et convergence pour l’algorithme
III. 5. Fonction de densité de probabilité mixte
III. 6. Résultats et commentaires
III. 6. 1. Première application
III. 6. 1. 1. Génération des échantillons
III. 6. 1. 2. Tracé des différentes PDF du modèle mixte
III. 6. 1. 3. Estimation des statistiques et poids optimaux
III. 6. 2. Deuxième application
III. 6. 2. 1. Génération des échantillons
III. 6. 2. 2. Estimation des statistiques et poids optimau
III. 7. Conclusion
Conclusion Générale
Références
Télécharger le rapport complet