Construction de la base d’apprentissage

Construction de la base d’apprentissage

Lโ€™anatomie cytologique est une spรฉcialitรฉ mรฉdicale qui รฉtudie la composition microscopique des cellules. Les prรฉlรจvements sont รฉtalรฉs sur une lame puis fixรฉs et colorรฉs afin de reconnaรฎtre les diffรฉrentes cellules prรฉsentes. Les รฉtalements sont ensuite examinรฉs au microscope par un cytotechnicien afin de repรฉrer les cellules dโ€™intรฉrรชt. Cette รฉtape de lecture de la lame consiste en une รฉvaluation visuelle des cellules prรฉsentes sur une lame cytologique. Le but de cette รฉtape est soit la dรฉtection de cellules anormales ou suspectes, soit la quantification de cellules. Ceci est donc un intรฉrรชt capital pour le pathologiste qui doit รฉtablir un diagnostic fiable et valide. Le faible nombre de cellules anormales observรฉes durant lโ€™analyse implique une grande concentration du cytotechnologiste. A cause de ce facteur subjectif, quelques erreurs apparaissent et peuvent causer des faux nรฉgatifs.

Une approche prometteuse est dโ€™aider le cytopathologiste dans sa recherche des cellules anormales sur la lame. Un systรจme automatique pourrait contribuer ร  la dรฉtection des erreurs dโ€™analyse pour une meilleure fiabilitรฉ. La premiรจre รฉtape du systรจme est la segmentation automatique des images cytologique qui consiste ร  sรฉparer la scรจne image en rรฉgions homogรจnes . Lโ€™utilisation de plusieurs espaces couleur permet une description exhaustive des couleurs car les propriรฉtรฉs de chaque espace couleur sont susceptibles dโ€™รชtre exploitรฉes. Cette description conduit ร  des donnรฉes de grande dimensions oรน la possibilitรฉ dโ€™avoir une redondance et une incohรฉrence est รฉlevรฉe lโ€™utilisation dโ€™une mรฉthode de rรฉduction de dimension peut contourner ce problรฉme. Une analyse discriminante linรฉaire (LDA) est rรฉalisรฉe pour extraire les caractรฉristiques discriminantes et pertinentes afin de rรฉduire le temps dโ€™exรฉcution, les redondances et le bruit.

Reprรฉsentation de la couleur

Les systรจmes de primaires

Le systรจme (R,G,B) Dans le domaine de traitement dโ€™images, les composantes couleur dโ€™un pixel dรฉpendent du camรฉra et du systรจme dโ€™acquisition utilisรฉ. Cela pose diffรฉrents normes mais le systรจme (Rc, Gc, Bc) de la CIE [1] reste nรฉanmoins le systรจme de rรฉfรฉrence. Le systรจme RGB est un systรจme ร  trois dimensions qui peut รชtre reprรฉsentรฉ sous la forme dโ€™un cube (figure4.9) dont chaque axe correspond ร  une couleur primaire, dโ€™origine O. La couleur est reprรฉsentรฉ par un point C qui dรฉfinit le vecteur couleur
โ†’
OC La CIE dรฉfinies autres primaires, par exemple, la norme NTSC qui utilise les primaires fixรฉes par la FCC. La norme allemande PAL fixรฉe par EBU ou ร  la norme SECAM.

Le systรจme (X,Y,Z) Les systรจmes(R,G,B) prรฉsentent quelques inconvรฉnients majeurs :
โ€“ Les composantes trichromatiques peuvent prendre des valeurs nรฉgatives.
โ€“ Les valeurs des composantes trichromatiques sont liรฉes ร  la luminance qui est une combinaison linรฉaire des composantes trichromatiques.
โ€“ Lโ€™existence de multitude standards de systรจme (R*,G*,B*).
En 1931, la CIE tente dโ€™รฉtablir un systรจme permet de rรฉsoudre les inconvรฉnients du systรจme (Rc, Gc, Bc) [2], dont les primaires [X], [Y] et [Z], qui sont imaginaires, une de ces primaires reprรฉsente lโ€™information de luminance, et toutes les composantes trichromatiques sont positives.

Les systรจmes luminance-chrominance

Les composantes dโ€™un systรจme luminance-chrominance sont รฉvaluรฉes ร  partir des composantes trichromatiques R, G et B par une transformation non linรฉaire ou une transformation linรฉaire en utilisant une matrice de passage. La luminance notรฉe L dans le systรจme luminance-chrominance, qui peut avoir plusieurs sens selon la faรงon dont elle est considรฉrรฉe. Les systรจmes luminance-chrominance sont ainsi notรฉs (L, Chr1, Chr2). Ainsi, il existe diffรฉrents types de systรจmes luminance-chrominance :

Les systรจmes perceptuellement uniformes
Judd ร  proposer de nouvelles composantes de chrominance qui tentent de rรฉduire les disproportions entre les diffรฉrents ellipses de MacAdam [3]. Ces composantes, notรฉes u et v.

Les systรจmes de tรฉlรฉvision
Les signaux de tรฉlรฉvision sรฉparent lโ€™information de luminance de celle de chrominance. Il existe deux principaux systรจmes de tรฉlรฉvision :

Le systรจme (Y,I,Q) Cโ€™est un systรจme dรฉfini par le standard NTSC. On peut rรฉaliser une transformation linรฉaire des composantes trichromatiques du systรจme par lโ€™utilisation dโ€™une matrice de passage .

Le systรจme (Y,U,V) Cโ€™est un systรจme dรฉfini par le standard PAL (norme allemande). Il est aussi possible dโ€™รฉvaluer les composantes trichromatiques ร  partir du systรจme (Rc,Gc,Bc) de la CIE en utilisant une matrice de passage.

Les systรจmes perceptuels

Les systรจmes perceptuels ressemblent ร  des systรจmes luminance-chrominance puisquโ€™ils sont composรฉs dโ€™une information quantifiant la luminance ainsi que de deux informations quantifiant la chrominance. Ces notions mises en รฉvidence en 1909 par A.Henry Munsell Il existe de nombreux systรจmes de ce type dans la littรฉrature telles que : ISH, HSL, HSV, TLS, LCH, LSH, LST, ITS, … Nous distinguons deux familles de systรจmes perceptuels :

Les systรจmes de coordonnรฉes polaires
Cette famille de systรจmes dรฉcomposant lโ€™information couleur en un axe de luminance et un plan de chrominance, par transposition des coordonnรฉes cartรฉsiennes en coordonnรฉes polaires .

La premiรจre composante dโ€™un systรจme de coordonnรฉes polaires reprรฉsente lโ€™information de luminance L, identique ร  la premiรจre composante du systรจme luminance-chrominance correspondant, qui est dรฉfini par lโ€™รฉquation : L = โ”ƒโ”ƒ OP โ”ƒโ”ƒ = โˆšCHrยฒโ‚ + CHrยฒโ‚‚

Les systรจmes humains de perception de la couleur

Dans ce type dโ€™espace, la couleur est dรฉcrite comme lโ€™homme la qualifie, exprimรฉ par trois composantes forment un systรจme (I,S,T), La premiรจre composante I reprรฉsente lโ€™intensitรฉ correspond ร  lโ€™information de luminance, ensuite la saturation S reprรฉsente le niveau de coloration, et T la teinte.

Le systรจme (I,S,T) Ce modรจle correspond ร  une expression des composantes I, S et T dans le cubeย  des couleurs dโ€™un systรจme (R,G,B). Dans cette reprรฉsentation du cube des couleurs, Nous retrouvons lโ€™axe achromatique qui correspond ร  lโ€™axe dโ€™intensitรฉ dans le systรจme (I,S,T).

Analyse Linรฉaire Discriminante (LDA)

Lโ€™objectif de lโ€™Analyse Linรฉaire Discriminante (LDA), est de rรฉduire le nombre de dimensions en prรฉsentant le maximum des donnรฉes. Elle cherche les axes tels que la projection des donnรฉes dans lโ€™espace engendrรฉ par ces axes permette une plus grande discrimination entre les classes .

Apprentissage et classifications supervisรฉes

La prรฉsence dโ€™images numรฉriques dans des applications devient importante de jour en jour. Plusieurs formalismes existent pour modรฉliser lโ€™information issue dโ€™une image ou dโ€™une mesure [15].Ces modรฉlisations posent problรจme au niveau de la taille des donnรฉs, ce problรจme peut รชtre rรฉgler par lโ€™utilisation dโ€™une mรฉthode de rรฉduction de dimension. Nous avons choisit la mรฉthode LDA qui nous permet de rรฉduire la taille des donnรฉes dโ€™image en combinant les composantes couleurs et donc elle nous facilite la classification.

Notion d’apprentissage

Lโ€™apprentissage automatique (machine-Learning en anglais) est une discipline scientifique, qui est aussi lโ€™un des champs dโ€™รฉtude de lโ€™intelligence artificielle. Lโ€™apprentissage automatique fait rรฉfรฉrence au dรฉveloppement, ร  lโ€™analyse et ร  lโ€™implรฉmentation de mรฉthodes qui permettent ร  une machine (au sens large) dโ€™รฉvoluer grรขce ร  un processus dโ€™apprentissage, et ainsi de remplir des tรขches quโ€™il est difficile ou impossible de remplir par des moyens algorithmiques plus classiques. Cette notion englobe toute mรฉthode permettant de construire un modรจle de la rรฉalitรฉ ร  partir de donnรฉes, soit en amรฉliorant un modรจle partiel ou moins gรฉnรฉral, soit en crรฉant complรจtement le modรจle ou bien capacitรฉ ร  amรฉliorer les performances au fur et ร  mesure de lโ€™exercice dโ€™une activitรฉ .

Types d’apprentissage
Les algorithmes dโ€™apprentissage peuvent se catรฉgoriser selon le mode dโ€™apprentissage quโ€™ils emploient :

Lโ€™apprentissage supervisรฉ
Si les classes sont prรฉdรฉterminรฉes et les exemples connus, le systรจme apprend ร  classer selon un modรจle de classement ; on parle alors dโ€™apprentissage supervisรฉ (ou dโ€™analyse discriminante).

Lโ€™apprentissage non-supervisรฉ
Quand le systรจme ou lโ€™opรฉrateur ne disposent que dโ€™exemples, mais non dโ€™รฉtiquettes, et que le nombre de classe et leur nature nโ€™ont pas รฉtรฉ prรฉdรฉterminรฉs, on parle dโ€™apprentissage non supervisรฉ ou clustering.

Lโ€™apprentissage par renforcement
lโ€™algorithme apprend un comportement รฉtant donnรฉ une observation. Lโ€™action de lโ€™algorithme sur lโ€™environnement produit une valeur de retour qui guide lโ€™algorithme dโ€™apprentissage.

Notion de la classification

La classification est une opรฉration de structuration qui vise ร  organiser un ensemble dโ€™observation en groupes homogรจnes et contrastรฉs afin de faciliter lโ€™analyse des informations et dโ€™effectuer des prรฉdictions .

Principale mรฉthodes de la classification supervisรฉe

Machine ร  vecteurs de support (SVM)
Les machines ร  vecteurs support on รฉtรฉ introduites en 1995 par Cortes et Vapnik [17]. Elles sont utilisรฉes dans de nombreux problรจmes dโ€™apprentissage : reconnaissance de forme, catรฉgorisation de texte ou encore diagnostic mรฉdical. Les SVM reposent sur deux notions : celle de marge maximale et celle de fonction noyau. Elles permettent de rรฉsoudre des problรจmes de discrimination non linรฉaire. La marge est la distance entre la frontiรจre de sรฉparation et les รฉchantillons les plus proches appelรฉs vecteurs support. Dans un problรจme linรฉairement sรฉparable les SVM trouvent une sรฉparatrice qui maximise cette marge.

Astuce du noyau
Le cas linรฉairement sรฉparable est peu intรฉressant, car les problรจmes de classification sont souvent non linรฉaires. Pour rรฉsoudre ce point la mรฉthode classique est de projeter les donnรฉes dans un espace de dimension supรฉrieur appelรฉ espace de redescription. Lโ€™idรฉe รฉtant quโ€™en augmentant la dimensionnalitรฉ du problรจme on se retrouve dans le cas linรฉaire vu prรฉcรฉdemment. Nous allons donc appliquer une transformation non linรฉaire ฮฆ(โ€ข) aux vecteurs dโ€™entrรฉe xi tel que xi โˆˆ R et ฮฆ(xi) โˆˆ R(e > d). Ce changement va conduire ร  passer dโ€™un produit scalaire dans lโ€™espace dโ€™origine xi *xj ร  un produit scalaire ฮฆ(xi) โˆ— ฮฆ(xj) dans lโ€™espace de redescription lโ€™astuce est dโ€™utiliser une fonction noyau notรฉe K qui รฉvite le calcul explicite du produit scalaire dans lโ€™espace de redescription. Les fonctions noyaux doivent satisfaire le thรฉorรจme de Mercer. Nous avons alors lโ€™รฉgalitรฉ suivante : k(xi, xj) = ฮฆ(xi) โˆ— ฮฆ(xj)

Un contre tous
Cette approche utilise une architecture parallรจle de k machines ร  vecteur de support, une pour chaque classe. Chaque machine ร  vecteur de support rรฉsout un problรจme ร  deux classes : une classe ฯ‰i (ฯ‰i โˆˆ โ„ฆ), et toutes les autres โ„ฆ โˆ’ ฯ‰i .ย  nous avons M classifieurs binaires, dans cette premiรจre approche M = k . La rรจgle de dรฉcision finale est lโ€™application du principe ยซ winner take all ยป. Pour chaque classifieur un score va รชtre รฉtabli et lโ€™รฉtiquette attribuรฉe ร  lโ€™entrรฉe xi est celle associรฉe au classifieur qui obtient le meilleur score. Son principal inconvรฉnient est dโ€™effectuer un apprentissage qui peut รชtre grandement dรฉsรฉquilibrรฉ. Ainsi pour un classifieur ฯ‰i nous pouvons avoir un trรจs petit nombre dโ€™exemples de la classe i et un grand nombre de contre exemples .

Perceptron multi couche
Il y a principalement deux facteurs qui influent sur lโ€™apprentissage. Ce sont la qualitรฉ de lโ€™รฉchantillonnage dโ€™apprentissage(les exemples qui constituent la base dโ€™apprentissage) et la diversitรฉ des valeurs. En effet, le rรฉseau de neurones gรฉnรฉralisera mieux (aura plus de chances de rรฉpondre correctement en lui donnant en entrรฉe des informations non prรฉsentes dans les exemples dโ€™apprentissage) si la qualitรฉ de lโ€™รฉchantillonnage est meilleure et si les donnรฉes des exemples dโ€™apprentissage sont variรฉes. Intuitivement, on est conscient que sโ€™il sait rรฉpondre correctement pour un nombre fini de situations les plus diverses, il sera alors plus proche de ce que lโ€™on veut dans une situation nouvelle.

Conclusion gรฉnรฉraleย 

Le problรจme traitรฉ dans ce travail concerne lโ€™amรฉlioration de la classification dโ€™image dans les conditions dโ€™insuffisance dโ€™informations ร  priori, dรฉterministes et fiables sur lโ€™รฉtat et la nature de la formation de lโ€™image ร  lโ€™instant de prise de vue. Notre expรฉrience montre que la combinaison de classifieurs amรฉliore nettement les performances du systรจme de reconnaissance par rapport ร  chacun des classifieurs pris isolรฉment, ainsi que le choix de classifieurs est important pour aboutir ร  une meilleure performance avec le minimum de classifieurs. Une mรฉthode de combinaison de classifieurs dโ€™imagerie pour une meilleure classification des scรจnes imagรฉes a รฉtรฉ proposรฉe. La thรฉorie de lโ€™รฉvidence est basรฉe sur le principe de combinaison parallรจle des systรจmes rรฉpartis. Elle est gรฉnรฉrale et applicable ร  tout type de classifieurs.

 

 

 

 

 

Le rapport de stage ou le pfe est un document dโ€™analyse, de synthรจse et dโ€™รฉvaluation de votre apprentissage, cโ€™est pour cela chatpfe.com propose le tรฉlรฉchargement des modรจles complet de projet de fin dโ€™รฉtude, rapport de stage, mรฉmoire, pfe, thรจse, pour connaรฎtre la mรฉthodologie ร  avoir et savoir comment construire les parties dโ€™un projet de fin dโ€™รฉtude.

Table des matiรจres

Introduction gรฉnรฉraleย 
1 Reprรฉsentation de la couleur et analyse discriminanteย 
1.1 Introduction
1.2 Reprรฉsentation de la couleur
1.2.1 Les systรจmes de primaires
1.2.2 Les systรจmes luminance-chrominance
1.2.3 Les systรจmes perceptuels
1.2.4 Les systรจmes d’axes indรฉpendants
1.3 Synthรจse
1.4 Analyse Linรฉaire Discriminante (LDA)
2 Apprentissage et classifications supervisรฉesย 
2.1 Introduction
2.2 Notion d’apprentissage
2.2.1 Types d’apprentissage
2.3 Notion de la classification
2.4 Principale mรฉthodes de la classication supervisรฉe
2.4.1 Machine ร  vecteurs de support (SVM)
2.4.2 Rรฉseaux de neurones
2.4.3 Modรจle de mรฉlanges de gaussiennes
2.4.4 Arbres de dรฉcision
2.4.5 Les K plus proches voisins
2.5 Conclusion
3 Fusion de dรฉcisionsย 
3.1 Introduction
3.2 Principes et besoins de la combinaison des classifieurs
3.3 Dรฉfinition d’un classifieur dans le cadre de la combinaison
3.4 Mรฉthodes sans apprentissage
3.5 Mรฉthodes avec apprentissage
3.5.1 Approche bayรฉsienne
3.5.2 Thรฉorie de l’รฉvidence
3.6 Conclusion
4 Modรฉlisation de la fusion et expรฉrimentationsย 
4.1 Description de la base
4.2 Construction de la base d’apprentissage
4.2.1 Espaces couleur
4.2.2 Construction de la matrice de passage
4.2.3 ร‰tiquetage
4.2.4 ร‰chantillonnage
4.2.5 Base d’apprentissage
4.3 Classifications
4.4 Fusions
4.5 Rรฉsultats et รฉvaluations
4.5.1 Discussion des rรฉsultats
4.5.2 Prรฉsentation de l’interface graphique
Conclusion gรฉnรฉrale

Rapport PFE, mรฉmoire et thรจse PDFTรฉlรฉcharger le rapport complet

Tรฉlรฉcharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiรฉe. Les champs obligatoires sont indiquรฉs avec *