Etude de l’art sur l’imagerie micro-onde
Théorie des approches SVM et SVR
Introduction
Ces dernières années, il a soufflé comme un vent de révolution en apprentissage artificiel. Du côté des applications, on s’est tourné vers la fouille de très grandes bases de données réelles, avec les défis attenants en termes de complexité en calcul et en espace, de prétraitement nécessaire des données, et de présentation des résultats aux utilisateurs. Avec aussi de nouveaux besoins d’interactivité entre utilisateurs et outils d’apprentissage. Mais le bouleversement n’a pas semblé Moindre du côté conceptuel. Depuis 1995, nul n’est sensé ignorer les enseignements de Vapnik, et il est devenu quasiment impossible de ne pas essayer les SVMs ou le boosting sur un nouveau problème d’apprentissage. De quoi s’agit-il ?
Nous nous intéressons ici aux SVM. Étant donnée leur extraordinaire fortune, qui dépasse les cercles de la communauté de l’apprentissage artificiel, ce chapitre a pour objectif de les présenter de manière simple, mais assez complète. Une remarque préalable : SVM et SVR est l’acronyme de Support Vector Machines et support vector regression en anglais, méthodes et terme inventés par Vapnik principalement. Nous traduisons ici ce terme par Séparateurs à Vaste Marge [55].
Support vector machine
Généralités
Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d’apprentissage supervisé destinées à résoudre des problèmes de discrimination. Les SVM sont une généralisation des classifieurs linéaires.
Les SVM ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d’une théorie statistique de l’apprentissage : la Théorie de Vapnik-Chervonenkis[56]. Les SVM ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d’hyper paramètre, leurs garanties théoriques, et leurs bons résultats en pratique.
Les SVM ont été appliqués à de très nombreux domaines (bioinformatique, recherche d’information, vision par ordinateur, finance….). Selon les données, la performance des machines à vecteurs de support est de même ordre, ou même supérieure, à celle d’un réseau de neurones ou d’un modèle de mixture gaussienne [57].
Mise en œuvre des SVM
La réalisation d’un programme d’apprentissage par SVM se ramène essentiellement à résoudre un problème d’optimisation impliquant un système de résolution de programmation quadratique dans un espace de dimension conséquente. C’est pourquoi ces programmes utilisent des méthodes spéciales pour y parvenir de manière efficace et il n’est pas recommandé de chercher à réaliser soi-même un tel programme [58].
L’utilisation de ces programmes revient surtout à sélectionner une bonne famille de fonctions noyau et à régler les paramètres de ces fonctions (par exemple l’exposant pour les fonctions noyau polynomiale, ou bien l’écart type pour les fonctions à base radiale). Ces choix sont le plus souvent faits par une technique de validation croisée, dans laquelle on estime la performance du système en la mesurant empiriquement sur des exemples n’ayant pas été utilisés en cours d’apprentissage. L’idée est de chercher les paramètres permettant d’obtenir la performance maximale.
Définition de base
Séparation linéaire (séparateur linéaire)
Dans le cas∈de la discrimination biclasse, nous supposons que les données sont des couples (xi,yi)1<i<n X.Y, ou X designe l’espace des variables explicatives souvent pris dans Rd.Y ={-1,+1} et n’étant la taille de l’échantillon. L’appartenance d’une observation xi a une classe ou a une autre est matérialisée ici par la valeur -1 ou +1 de son étiquette yi .
L’échantillon d’apprentissage S est ainsi une collection de réalisations c-a-dire du couple aléatoire(x,y) dont la distribution P⊆ est fixe mais inconnue.cet ensemble est souvent dénoté par : S={(x1,y1),(x2,y2),…,(xn,yn)} (X*Y)n
Une fonction séparatrice entre les classe C1 et C2 est une fonction de décision f définie de Rd dans R telle que toute observation xi est affectée a la classe qui correspond au signe de f(xi) si :
-f (xi) 0, xi est affectée à la classe positive (+1).
-f (xi) 0, xi est affectée à la classe négative (-1).
Cette fonction peut être de nature variée. Si f est linéaire, on parle d’une séparatrice linéaire ou bien d’un hyperplan séparateur, elle prend la forme générale suivante :
f(x)=<w.x>+b avec (w,b) ∈ R2 *R,=σni=1 wi xi+b (II.1)
Ou w et b sont des paramètres, et x ∈ R est une variable.
La méthodologie d’apprentissage implique la recherche des paramètres w et b séparant le mieux possible les données d’apprentissage des classes C1 et C2 dans l’espace Rd.
La fonction signe (f(x)) est appelée classifieur linaire.
Géométriquement, cela revient à considérer un hyperplan qui est le lieu des points x satisfaisant < w.x > +b=0. En orientant l’hyperplan, la règle de décision correspond à observer de quel coté de l’hyperplan se trouve l’exemple xi. La figure II. 1 représente la situation dans R2.
On voit que le vecteur w définit la pente de l’hyperplan : w est perpendiculaire à l’hyperplan. Le terme b quant à lui permet de translater parallèlement à lui-même.
Figure II. 1 : l’hyperplan correspondant a la fonction de décision d’un classifieur linéaire dans R2
Notion de marge
Marge d’une observation ∈
La marge d’une observation(x,y) S relativement a la fonction f est définie par : i=yif(xi) (II.2)
Cette marge peut prendre une valeur négative. Elle dépend de la fonction f et non du classifieur signe (f(xi)).si g est un multiple de f, les classifieurs pour ces deux fonctions sont les même mais pas leurs marges.
L’observation (xi,yi) est bien classée par le classifieur f si et seulement si i > 0 .
La valeur absolue de i est proportionnelle a la distance (marge) euclidienne
d (w,x,b)séparant le point x de l’hyperplan H(w,b) associé a f. La marge euclidienne est donnée par : di(w,x,b)= . (II.3)
marge euclidienne. Ainsi, c’est la métrique euclidienne que nous utilisons en calculant les marges plus tard.
Distribution de marge d’un hyperplan
La distribution de marge d’un hyperplan H (w,b) par rapport a l’échantillon d’apprentissage S est définie par : Dm (H(w,b))= Ȗi ; i = 1,2, … , n (II.4)
Marge d’un hyperplan :
La marge d’un hyperplan H(w,b) par rapport a l’échantillon d’apprentissage S est définie par :
M (H(w,b))=min LQ Dm (H(w,b)) (II.5)
Machine a vecteurs supports linéaires
Cas des données séparables
Dans le cas de données séparables, il existe une infinité d’hyperplans permettant de séparer les deux classes, comme l’illustre la figure II.2.
Figure II.2 : Exemple d’hyperplans séparateurs dans R2
La séparabilité des données implique que la contrainte suivante est remplie pour chaque exemple
|
Table des matières
Introduction générale
Chapitre I : Etude de l’art sur l’imagerie micro-onde
I.1.Introduction
I.2.Imagerie Micro ondes
I.3.Techniques d’imagerie micro-ondes confocale
I.3.1.Les algorithmes de reconstruction
I.3.2.Technique adaptative Multistatique d’imagerie micro-ondes confocale
I.4.Technique d’imagerie micro ondes tomographique
I.4.1.Imagerie micro ondes tomographique par diffraction
I.4.2.Imagerie micro ondes tomographique itérative
I.4.3.Problème inverse
I.5.Paramètres électromagnétique du matériau
I.5.1.Champ de polarisation et permittivité
I.5.2.Aimantation et perméabilité
I.5.3.Diélectrique imparfait
I.6.Propriétés diélectriques des tissus humains
I.7.Propriétés diélectriques des tissus mammaires
I.8.Conclusion
Chapitre II : Théorie des approches SVM et SVR
II.1.Introduction
II.2. Support vector machine
II.2.1.Généralités
II.2.2. Mise en ?uvre des SVM
II.3. Définition de base
II.3.1. Séparation linéaire (séparateur linéaire)
II.3.2. Notion de marge
II.4. Machine a vecteurs supports linéaires
II.4.1. Cas des données séparables
II.5. Implémentation
II.6. Avantages et inconvénients
II.6.1.Avantage
II.6.2.Inconvénients
II.7.Régression par les machines à vecteurs supports SVR
II.7.1.Méthode standard
II.7.1.1. Idée de base : Cas linéaire
II.7.1.2. Cas non-linéaire
II.8 Modifications apportées aux SVR
II.8.1 Procédure itérative avec une marge adaptative
II.8.2 Pondération du SVR
II.9. Conclusion
Chapitre III: Applications des approches SVM et SVR pour la classification
III.1. Introduction
III.2 Modèle du sein pour la collection des données
III.2.1Modèle de sein
III.2.Choix de l’antenne
III.3. Etapes de construction et de validation des SVM
III.3.1. Construction du SVM et SVR
III.3.2. Phase de pré-traitement des données
III.3.3. Phase d’apprentissage
III.3.4. Résultats de simulation et de test
III.4.-Conception du modèle de classification par approche SVR
III.5. Conclusion
Conclusion générale
Références Bibliographiques
Annexe (A)
Télécharger le rapport complet