Télécharger le fichier pdf d’un mémoire de fin d’études
Inverse Synthetic Aperture Radar (ISAR)
La technique ISAR (Tait 2005, Moruzzis et al. 2004, van Dorp et al. 2012) est équivalente à la technique SAR (Synthetic Aperture Radar) sauf qu’elle utilise le mouvement rotationel de la cible (et les changements d’angle d’aspect) au lieu du mouvement du capteur radar. Cette technique permet d’obtenir une image transverse de la cible. C’est ce qu’on appelle l’ISAR 1D. Les images ISAR 1D sont issues du traitement des spectres Doppler des points brillants (ou diffuseurs) résultant du mouvement de la cible, les points brillants étant définis comme un point ou une surface élémentaire réfléchissant les ondes electromagnétiques. Si la cible tourne en azimut à une vitesse constante sur un petit angle, les points brillants vont se rapprocher ou s’éloigner du radar à une vitesse ne dépendant que de la position transverse de la cible. La rotation entraîne la génération de fréquences Doppler transverses dépendantes qui peuvent être triées par une transformée de Fourier. Cette opération est équivalente à la gé-nération d’une antenne à ouverture synthétique formée par la sommation cohérente des sorties du récepteur.
L’ISAR 1D peut également être associée à la technique HRD pour obtenir une image 2D de la cible. L’axe radial est donnée par la technique HRD et l’axe transverse par la technique ISAR 1D. Cette combinaison des deux techniques NCTR est appelée ISAR 2D.
Il convient de préciser que le temps d’intégration important nécessaire pour obtenir les images ISAR implique l’utilisation de techniques de foca-lisation sophistiquées afin d’obtenir une image nette.
Jet Engine Modulation (JEM)
La technique JEM (Tong et al. 2005, Tait 2005, Martin and Mulgrew 1990; 1992, Piazza 1999, Launay 1991) est une technique de reconnaissance des moteurs à réaction. La technique JEM effectue une analyse Doppler de la signature électromagnétique de la cible, basée sur l’analyse des parties en mouvement à savoir les moteurs et leurs pales. Le spectre JEM est issu de l’interaction du signal radar avec les aubes des différents étages de compression d’un moteur à réaction de l’avion (sous réserve d’une pénétration des ondes dans le conduits d’air, c’est-à-dire d’une longueur d’onde petite). C’est la compréhension de ce phénomène et l’étude des spectres obtenus qui permet de déterminer le nombre de pales et le ré-gime moteur, dans un premier temps, du premier étage de compression et si possible du deuxième étage voire du troisième étage. En utilisant le spectre JEM, plusieurs caractéristiques moteurs peuvent être détermi-nées : (i) Fréquence de rotation moteur (Composantes Basse fréquence).
(ii) « Chopping frequency » (Composantes Haute fréquence) : on analyse dans ce cas chaque étage de compression séparément. Sur le premier étage de compression le moteur a N pales supposées identiques. Comme le mo-teur est symétrique par rapport au « spool », à chaque fois qu’il subit une rotation de 1/N, le même mécanisme se répète. Le signal radar tempo-rel va donc se répéter chaque T/N avec T la période de rotation moteur. La transformée de Fourier de ce signal temporel constitue le spectre JEM pour un étage de compression. Ce spectre est donc caractérisé par des raies séparées par un interval fréquentiel de N/T de la fréquence de transmi-sion du signal radar. Les fréquences de ces raies sont appelées « chopping frequency ». Elles permettent de déterminer le nombre de pales multiplié par le nombre de rotations par seconde de chaque étage de compression.
(iii) Produits de mélange entre les différents étages : en plus des raies correspondantes aux « chopping frequencies », on retrouve sur le spectre JEM des raies correspondantes aux réflections entre les différents étages de compression.
Définition du taux d’erreur, taux de succès et taux de bonne iden-tification
Les algorithmes détaillés dans la suite du mémoire utilisent une règle de décision binaire (Acceptation/Rejet) ou à trois niveaux de décision (Ac-ceptation/Incertitude/Rejet). Généralement, lorsqu’on utilise une règle de décision binaire, on calcule une mesure de confiance quant à l’apparte-nance aux différentes classes et on accepte la ou les classes ayant une me-sure de confiance élevée (dans le cas contraire, la classe est rejetée). Dans le cas d’une règle de décision à trois niveaux (cf. figure 1.1), pour chaque classe, si la mesure de confiance est très élevée, on accepte la classe, si la mesure de confiance est très faible, on rejette la classe et sinon on déclare la classe incertaine. Les seuils d’acceptation SA et de rejet SR sont ajus-tés de manière à respecter le taux d’erreur souhaité tout en maximisant le taux de succès.
Il convient ensuite de définir les termes « erreur » et « succès ». Il y a erreur lorsque la classe i est déclarée rejetée pour une signature de la classe i. Il y a succès lorsque la classe i est déclarée acceptée et les autres classes incertaines ou rejetées pour une signature de la classe i. On parle de bonne identification lorsque la classe i est déclarée acceptée et toutes les autres classes rejetées pour une signature de la classe i. Le taux de bonne identification sera donc toujours inférieur ou égal au taux de succès. On notera le taux d’erreur TE, le taux de succès TS et le taux de bonne identification TBI dans la suite du mémoire.
Haute Résolution Distance (HRD)
La technique Haute Résolution Distance (HRD) offre un moyen simple et rapide de caractériser une cible à travers les profils distance (Wehner and Barnes 1994). Un profil distance est une représentation de la réponse temporelle de la cible à une impulsion radar haute résolution. C’est une image 1D de la cible (cf. figure 1.2). Il a été montré (van der Heiden 1998, Zyweck and Bogner 1996, Hudson and Psaltis 1993, Li and Yang 1993) que les profils distance haute résolution sont des attributs très intéres-sants et prometteurs pour la classification de cibles, puisqu’ils apportent une information discriminante sur la géométrie de l’avion. C’est la tech-nique retenue pour les travaux de thèse. Dans cette section, nous étudions dans un premier temps les différentes formes d’onde permettant d’obtenir un profil distance HRD (cf. paragraphe 1.2.1) puis nous détaillons dans le paragraphe 1.2.2, la chaîne d’acquisition de ces profils distance. Dans un second temps, nous introduisons la notion de diffuseurs ou de points brillants à l’origine des profils distance (cf. paragraphe 1.2.3) puis nous abordons les sujets de l’influence de l’angle d’aspect (cf. paragraphe 1.2.4) sur les profils distance et de l’alignement de ces derniers (cf. paragraphe 1.2.5).
Formes d’onde haute résolution
Il existe plusieurs types de forme d’onde permettant d’obtenir un pro-fil distance. Les paragraphes suivants décrivent ces différentes solutions.
Impulsion courte
La solution la plus simple et la plus évidente pour obtenir une forme d’onde haute résolution est d’émettre une impulsion courte. Cependant cette solution a de nombreux inconvénients. Premièrement, l’énergie de l’impulsion est faible car sa durée est très petite. En conséquence, la puis-sance crête de l’impulsion doit être très importante pour obtenir des per-formances raisonnables. Un autre inconvénient est le fait que la grande bande passante instantanée associée à une impulsion haute résolution né-cessite un convertisseur A/D avec une fréquence d’échantillonnage très importante pour pouvoir enregistrer les échos reçus. Ce type de conver-tisseur existe mais ils sont souvent chers et consomment beaucoup.
Chirp ou forme d’onde modulée linéairement en fréquence
Une solution pour augmenter l’énergie de l’impulsion tout en mainte-nant une haute résolution est d’appliquer une forme d’onde dite « chirp » qui est une onde sinusoïdale modulée linéairement en fréquence. La du-rée de l’impulsion dépend du rapport signal sur bruit (RSB) souhaité. Le « chirp » utilise le principe de compression d’impulsion qui permet d’aug-menter la résolution en distance et le RSB, par modulation du signal émis.
La fréquence f (t) d’un chirp peut donc s’écrire f (t) = f0 + αt, (1.1) où f0 est la fréquence de départ et α le taux de chirp [Hz/s] ou plus couramment « chirp rate ». Puisque la fréquence est réliée à la phase par la relation f (t) = 1 dφ , (1.2) 2π dt
la phase de la forme d’onde chirp peut s’écrire de la manière suivante : tαt2). φ(t) = 2π f (τ)dτ = 2π( f0t + (1.3)
En utilisant cette expression, un chirp de durée Tc peut s’écrire sous la forme exponentielle suivante : p(t) = ej(ω0 t+π αt2) , 0 < t < Tc, (1.4)
Comme pour l’impulsion courte, l’inconvénient du chirp est qu’il né-cessite un convertisseur A/D avec une fréquence d’échantillonnage très importante pour pouvoir enregistrer les échos reçus.
Influence de l’angle d’aspect
L’effet principal de cette combinaison est que les profils distance peuvent varier très rapidement suivant l’angle d’aspect. L’angle d’aspect d’un avion peut être exprimé comme une paire de coordonnées (α, θ) où α représente l’azimut et θ l’angle de site. L’azimut est l’angle entre la direc-tion du nez de l’avion et la direction de la ligne de vue du radar projetée sur le plan formé par le nez et les ailes de l’avion. L’angle de site est l’angle entre la ligne de vue du radar et le plan formé par le nez et les ailes de l’avion. Suivant les valeurs de l’azimut α et de l’angle de site θ, les par-ties de l’avion contribuant au profil distance varient. Cela est illustré sur la figure 1.8. Sur la figure 1.8a, les cases distance sont distribuées suivant l’axe du fuselage de l’appareil. Dans cette configuration, on peut claire-ment identifier quelles parties de l’avion contribuent au profil distance. Sur la figure 1.8b, on se rend compte que les ailes de l’avion contribue-ront à la valeur du signal de retour en plus du fuselage pour la plupart des cases distance. Pour la figure 1.8c, le fuselage est restreint à quelques cases distance et la reconnaissance s’effectue sur la largeur de l’appareil.
Alignement des profils distance HRD
L’article de Zwart et al. (Zwart et al. 2003) revient sur cette sensibilité des profils distance à l’angle d’aspect, phénomène que les auteurs ont appelé speckle. Cependant l’article s’intéresse plus précisement au phéno-mène appelé par les auteurs Translational Range Migration. Ce phénomène
classique lorsqu’on travaille avec les profils distance haute résolution nous oblige à réaligner les profils distance d’une base de données avant de pou-voir les comparer. En effet, la localisation des diffuseurs dans un profil dis-tance dépend de la distance entre le radar et l’avion. Or cette distance n’est pas connue de manière suffisamment précise pour que les profils distance soient correctement alignés. On entend par alignement (ou recalage), la procédure qui cherche à placer le nez de l’appareil à la même position sur tous les profils distance. L’article revient donc sur les méthodes classiques d’alignement des profils distance. Les auteurs distinguent deux types de procédure d’alignement : l’alignement relatif et l’alignement absolu.
L’alignement relatif (Kosir et al. 1995) correspond à la procédure qui permet d’aligner un profil distance avec un ou plusieurs autres profils distance d’une base de données. L’alignement relatif est communément réalisé en alignant une paire de profil distance de manière à maximiser leur corrélation.
L’alignement absolu (Liao and Bao 1998) signifie quant à lui que les profils distance sont récalés pour optimiser un certain critère d’optimisa-tion extérieur (c’est-à-dire ne dépendant pas des autres profils distance).
Une autre approche citée dans l’article pour traiter ce problème d’alignement des profils distance est de travailler avec le module de la transformée de Fourier des profils distance. Cette approche est également abordée dans le livre de François Le Chevalier (Chevalier 2002) ou encore dans les articles de Zyweck et Bogner (Zyweck and Bogner 1996) ou de Wong (Wong 2004). Le principal désavantage de cette méthode est que l’on perd l’information de phase, information potentiellement discriminante, ce qui peut donc faire baisser les performances de classification. L’information de distance étant contenue dans la phase, il n’est au final plus nécessaire de recaler les profils distance lorsqu’on travaille avec le module de la transformée de Fourier. Nous reviendrons un peu plus tard sur l’étude des techniques NCTR dans le domaine fréquentiel (cf. paragraphe 1.4.1). Après être revenu sur différentes méthodes d’alignement des profils distance, l’article (Zwart et al. 2003) propose une nouvelle méthode pour résoudre le problème de l’alignement en distance des profils distance. Les auteurs l’ont appellé Time-Smoothed Zero Phase Representation. Les auteurs l’ont concu pour combiner les avantages de l’alignement relatif avec les avantages de l’alignement absolu.
Pour n’importe quelle fonction f (x) dont la transformée de Fourier est F( f ), la transformée de Fourier de f (x − s) est donnée par : F( f (x − s)) = F( f (x))eiω s (1.12) c’est-à-dire par un décalage de phase de F( f (x)). Dans le cas discret, on travaille avec la fonction échantillonnée fn de f avec n = 1 . . . d, on peut écrire le même type de relation : F( f(n+k) mod d) = F( fn )e2π ink/d (1.13)
Pour un décalage discret de k, la phase φ de la première composante continue de la transformée de Fourier de fn sera décalée de 2πk/d et les phases des composantes d’ordre supérieur ajustées en conséquence.
Si on suppose que l’on a une série de N profils distance xi avec i = 0, . . . ,N − 1 correspondant à un avion en vol à différents moments ti. Si on calcule pour chacun de ces profils distance, la phase de la pre-mière composante continue de la transformée de Fourier, on obtient une séquence φ(ti) = φi.
Les variations de φi sont causées par des rotations ou des translations de la cible par rapport au radar. Supposons que la cible reste à une dis-tance R du radar durant la rotation. φi est donc une fonction uniquement dépendante de l’angle d’aspect (α,θ). Dans ce cas, on peut donc définir φi de la manière suivante : φi = φ(α(ti),θ(ti)) = φia (1.14)
Cependant dans le cas réel, la distance radar-cible ri varie également dans le temps. On peut donc réécrire φi de la manière suivante : φi = φia + 2π/L(ri − R) = φia + γ(ri − R) (1.15) avec L la taille totale de la fenêtre distance (en mètre).
Si l’on connaissait parfaitement (c’est-à-dire sans erreur) la distance ri entre la cible et le radar, une manière de compenser les effets translation-nels serait tout simplement de soustraire la quantité γ(ri − R) à la phase φi. Dans le cas des données utilisées pour la thèse, les distances sont généralement estimées. Les ri sont donc connues mais avec des erreurs. Il est donc utile de s’intéresser au cas où les ri sont inconnues.
Dans le cas où les ri sont inconnues, une première solution, appelée représentation Pure Zero Phase par les auteurs, consiste tout simplement à mettre chaque φi à 0 (et d’ajuster la phase des autres composantes d’ordre supérieur en conséquence). Cela a pour effet d’éliminer les effets translationnels introduits par le terme γ(ri − R) mais cela introduit en même temps une erreur d’alignement due à la non prise en compte du terme φia.
Les auteurs proposent donc une méthode plus sophistiquée pour trai-ter le terme de distance γ(ri − R). Il s’agit de la méthode Time-Smoothed Zero Phase Representation. Cette méthode est basée sur l’hypothèse que la position relative de la majorité des diffuseurs principaux dans le profil distance reste stable lorsque l’angle d’aspect varie très faiblement. Deux profils distance successifs dans une base de données peuvent donc être recalés entre eux en utilisant une méthode de recalage relatif telle que celle du maximum de corrélation. Le but de cette nouvelle méthode est de combiner les avantages du recalage relatif à travers le calcul de la corréla-tion maximale et les avantages du recalage absolu en utilisant la Pure Zero Phase Representation.
A partir de l’équation 1.15, on peut écrire la relation entre les phases φi et φi−1 suivante : φi − φi−1 = φia − φia−1 + γ(ri − ri−1) = φia − φia−1 + γΔ(ri) (1.16)
Pour chaque profil distance xi, on peut donc déterminer le décalage optimal par rapport au profil distance précédent xi−1. Ce décalage corres-pond à un décalage en phase δφic. Dire que corriger ce décalage de phase permet d’aligner parfaitement les profils xi et xi−1 est équivalent à dire que δφic = γΔri. Comme γ est connu, pour chaque profil distance à part le premier, on a une estimation de Δri.
On peut donc corriger la phase d’origine φi par la phase φic : i φic = φia + γ(ri − R − ∑ Δrj ) = φia + γ(r0 − R) (1.17)
En d’autres termes, avec cette phase corrigée, tous les profils distance sont maintenant recalés à la distance r = r0 du radar.
Classification non paramétrique
Les méthodes non paramétriques consistent à estimer la densité de probabilités directement à partir des données. Aucune hypothèse a priori sur la distribution des données n’est posée. Les trois approches principales sont l’estimation par histogramme, la méthode de la fenêtre de Parzen (Parzen 1962) et la méthode des K Plus Proches Voisins (KPPV). On peut retrouver plus en détail ces différentes approches dans le livre de Bishop (Bishop 2006).
Estimation par histogramme
L’estimation par histogramme consiste à diviser l’espace d’entrée en compartiment de taille égale h. On construit l’histogramme en comptant le nombre d’échantillons dans chacun des compartiments. Plus la taille h des compartiments est petite et plus l’estimation de la densité sera fine. Lorsque la densité à estimer est de dimension multiple, les compartiments correspondent à des hypercubes d’hypervolumes égaux. Cette méthode est applicable sur des jeux de données de dimension faible. Pour l’estima-tion de densité de probabilité de grande dimension, la méthode souffre gravement de la « malédiction de la dimension » ou « curse of dimen-sionality » en anglais. De plus, pour que l’estimation converge vers les véritables densités de probabilité, trois conditions doivent être respectées :
– Le volume de chaque compartiment doit être réduit ;
– Le nombre d’observations par compartiment doit être très grand ;
– Le ratio du nombre d’observations par compartiment avec le nombre total d’observations doit être élevé.
Lorsqu’un nouvel échantillon est disponible pour l’apprentissage, il est affecté à un des compartiments de l’histogramme, la densité estimée est donc modifiée. Une fois que les densités de probabilités affectées à chaque classe sont estimées, la classification suit le schéma classique qui consiste à calculer la probabilité qu’a un nouvel échantillon d’appartenir à l’une des classes (modélisées par sa densité de probabilité). L’échantillon sera affecté à la classe ayant la plus grande probabilité.
Cette méthode est très difficilement applicable à des problèmes où la dimension des données est grande car pour construire l’histogramme, le nombre d’observations doit être très important (ce qui n’est pas toujours possible) et dans ce cas la charge de calcul devient vite importante.
Fenêtre de Parzen
Il s’agit d’une estimation plus douce que l’estimateur par histo-gramme. Avec l’estimateur par histogramme, la densité en un point x est estimée par la proportion d’observations x1, . . . ,xN qui se trouvent à proxi-mité de x. Pour cela, on trace une boîte en x dont la largeur est gouvernée par un paramètre de lissage h. On compte ensuite le nombre d’obser-vations qui appartiennent à cette boîte. Cette estimation, qui dépend du paramètre de lissage h, présente de bonnes propriétés statistiques mais est par construction non-continue.
La méthode du noyau consiste à récupérer la continuité : pour cela, on remplace la boîte centrée en x et de largeur h par une courbe en cloche centrée en x. Plus une observation est proche du point de support x plus la courbe en cloche lui donnera une valeur numérique importante. A l’in-verse, les observations trop éloignées de x se voient affecter une valeur numérique négligeable. L’estimateur est formé par la somme (ou plutôt la moyenne) des courbes en cloche. Cet estimateur est donc clairement continu. Dans la pratique cela se résume à convoluer les données par un noyau gaussien. Dans le cas multidimensionnel, le noyau gaussien est un noyau gaussien multivarié. Autant dire encore une fois, que cette méthode est sensible à la dimensionnalité du problème, ce qui la rend très difficile à utiliser dans de nombreux cas.
K plus proches voisins (KPPV)
Le principe de l’algorithme des KPPV est repris pour un des algo-rithmes présentés dans ce mémoire (cf. chapitre 3). Le principe des KPPV est le suivant : on dispose de N échantillons dont on connaît la classe (base d’apprentissage). Pour chaque nouvel échantillon, on détermine la classe à laquelle il appartient. La méthode des KPPV va prendre en compte de manière identique les K échantillons de la base d’apprentis-sage les plus proches de l’échantillon à classer. On affecte à l’échantillon à classer la classe revenant majoritairement parmi les K plus proches échantillons d’apprentissage. On peut voir cette méthode comme une méthode d’estimation de la densité adaptant la largeur de la fenêtre selon la densité locale des données (K données les plus proches). Il s’agit en fait de l’estimateur par histogramme où la taille h des compartiments est adaptative.
On retrouve peu d’algorithmes de reconnaissance de cibles dans la littérature basés sur l’algorithme des KPPV, du fait de la charge de calcul bien plus importante qu’avec d’autres méthodes, bayésiennes par exemple. Cependant, en 2009, Mingjing et al. (Mingjing et al. 2009), propose d’éva-luer les performances d’un classifieur KPPV sur de nouveaux attributs ex-traits des profils distance haute résolution. La nouveauté de l’article réside plutôt dans le type des attributs utilisés que dans le choix du classifieur. Il s’agit en fait d’une combinaison de deux types d’attributs invariants aux translations des profils distance. Les auteurs proposent, en effet, de combi-ner les moments centraux et la distribution d’entropie extraits des profils distance pour former un seul vecteur d’attributs. Les profils distance su-bissent dans un premier temps une série de prétraitements. Le premier traitement est d’aligner les profils distance entre eux en utilisant la corré-lation croisée. Les auteurs préconisent également de moyenner plusieurs profils entre eux de manière à augmenter le RSB. En effet, d’après les au-teurs, si M profils distance sont moyennés alors l’augmentation de RSB sera de (M). Dans notre cas, où on traitera un seul profil distance à la fois, cela n’est pas applicable. Le dernier traitement consiste à normaliser les profils distance. Si on note x un profil distance avec N cases distance alors il est normalisé de la manière suivante : x¯ = x (1.19) ∑nN=1 x(n)
On a donc x¯ ∈ [0,1] et ∑nN=1 x¯(n) = 1. Le profil distance haute résolu-tion normalisé peut donc être vu comme une distribution de probabilité discrète.
Une fois ces prétraitements réalisés, on peut extraire les attributs vou-lus des profils distance. Les premiers attributs extraits sont les moments centraux. Le moment central d’ordre k est calculé de la manière suivante : N mk = ∑ (n − n0)k x¯(n) (1.20)
Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.
|
Table des matières
1 Etat de l’art
1.1 Fonction NCTR
1.1.1 Inverse Synthetic Aperture Radar (ISAR)
1.1.2 Jet Engine Modulation (JEM)
1.1.3 Définition du taux d’erreur, taux de succès et taux de bonne identification
1.2 Haute Résolution Distance (HRD)
1.2.1 Formes d’onde haute résolution
1.2.2 Obtention d’un profil distance HRD
1.2.3 Diffuseurs ou points brillants
1.2.4 Influence de l’angle d’aspect
1.2.5 Alignement des profils distance HRD
1.3 Méthodes de classification
1.3.1 Classification non paramétrique
1.3.2 Classification paramétrique
1.4 Espace de représentation
1.4.1 Profils distance haute résolution dans le domaine fréquentiel
1.4.2 Ondelettes
1.4.3 Représentations parcimonieuses
1.5 Conclusion du chapitre
2 Présentation des données et caractérisation statistique
2.1 Base de données
2.1.1 Données synthétiques
2.1.2 Données réelles
2.2 Visualisation simple de la base de données synthétiques
2.3 Etude statistique des matrices de covariance
2.3.1 Inertie des matrices de covariance
2.3.2 Volume des classes
2.3.3 Représentation graphique des données
2.4 Conclusion du chapitre
3 Algorithme des KPPV
3.1 Présentation générale
3.2 Première étape : calcul des métriques
3.3 Deuxième et troisième étapes : tri des métriques calculées à l’étape 1 et décision
3.4 Paramètres de réglage
3.5 Performances de l’algorithme des KPPV
3.5.1 RSB = 30dB
3.5.2 RSB = 20dB
3.5.3 RSB = 15dB
3.5.4 Matrices d’acceptation (MA) ou matrice de confusion d’acceptation
3.6 Conclusion du chapitre
4 Algorithmes de reconnaissance de cibles basés sur les méthodes probabilistes
4.1 Modèle de mélange pour les applications NCTR
4.1.1 Gaussian Mixture Models (GMM)
4.1.2 Modèle de mélange de Student
4.2 Estimation des paramètres et calcul des probabilités a posteriori
4.2.1 Estimation des paramètres
4.2.2 Calcul des probabilités a posteriori
4.3 Règles de décision
4.3.1 Règle de décision du MAP
4.3.2 Règle de décision pour le contrôle du taux d’erreur
4.4 Paramètres de réglages
4.5 Performances de l’algorithme basé sur les méthodes probabilistes
4.6 Représentation graphique des données via les méthodes probabilistes
4.6.1 Stochastic Neighbor Embedding (SNE)
4.6.2 Carte de probabilité dans l’espace de dimension réduite
4.7 Conclusion du chapitre
5 Algorithmes de reconnaissance de cibles basés sur la logique floue
5.1 Distance Floue pour la Reconnaissance Instantanée (D-FRI)
5.1.1 Construction des fonctions d’appartenance
5.1.2 Reconnaissance du profil distance sous test
5.1.3 Performances
5.2 Gabarits flous pour la Reconnaissance Instantanée (G-FRI)
5.2.1 Etape 1 : construction de la base d’apprentissage
5.2.2 Etape 2 : mise en forme du profil distance sous test
5.2.3 Etape 3 : comparaison du profil distance sous test avec la base d’apprentissage
5.2.4 Adaptation des gabarits aux autres classes de la base de données
5.2.5 Performances
5.3 Conclusion du chapitre
6 Parallélisation sur GPU
6.1 Les processeurs graphiques (GPU)
6.1.1 Historique : vers une architecture many-cores
6.1.2 Puissance de calcul des GPUs
6.1.3 Modèle de programmation sur GPUs
6.1.4 Accès mémoire
6.1.5 Génération Tesla vs génération Fermi
6.2 Etat de l’art de l’utilisation des GPUs dans les domaines en lien avec la thèse
6.2.1 Calcul de la SER sur GPU
6.2.2 Reconnaissance de cibles sur GPU
6.2.3 K plus proches voisins sur GPU
6.2.4 Méthodes probabilistes sur GPU
6.2.5 Logique floue sur GPU
6.3 Algorithme des KPPV et parallélisation sur GPU
6.3.1 Nombre d’opérations à virgule flottante
6.3.2 Temps de calcul sous Matlab
6.3.3 Découpage en thread sur l’architecture many-core GPU
6.3.4 Latence, occupation et parallélisme
6.3.5 Implémentation CUDA C++ sur GPU
6.3.6 Implémentation OpenCL
6.3.7 Implémentation Matlab mex-CUDA et Matlab mex-OpenCL
6.3.8 Conclusion
6.4 Méthodes probabilistes et parallélisation sur GPU
6.5 Algorithme logique floue et parallélisation sur GPU
6.5.1 Algorithme D-FRI
6.5.2 Algorithme G-FRI
6.5.3 Accélération de l’étape de calcul des possibilités
6.6 Conclusion du chapitre
7 Conclusion générale
7.1 Synthèse des propriétés des différents algorithmes présentés dans le mémoire
7.2 Synthèse des performances des différents algorithmes présentés dans le mémoire
7.3 Synthèse des performances de parallélisation
7.4 Synthèse globale
7.5 Perspectives
A Annexes
A.1 Estimation des coûts de calcul
A.1.1 Méthodes probabilistes
A.1.2 Algorithme D-FRI
A.1.3 Algorithme G-FRI
A.2 Fonctions de calcul de la possibilité
A.2.1 Pseudo-code de la première version de la fonction de calcul de la possibilité
A.2.2 Pseudo-code de la deuxième version de la fonction de calcul de la possibilité
A.2.3 Pseudo-code de la troisième version de la fonction de calcul de la possibilité
A.3 Publications
Télécharger le rapport complet