Développement et études de performances de nouveaux détecteurs/filtres rang faible dans des configurations RADAR multidimensionnelles

Le principe général du traitement du signal est d’extraire de l’information à partir d’un ensemble de signaux (numériques ou analogiques), le plus fréquemment électriques mais pouvant être issus de différents types de capteurs : électromagnétiques, acoustiques, optiques . . . Le  signal peut généralement se scinder en deux parties : le signal d’intérêt (lié aux informations recherchées) et une seconde partie contenant les perturbations telles que le bruit thermique, les interférences, le fouillis, les brouilleurs … Selon le type d’informations recherchées, on parle de différentes méthodes : détection (qui permet de répondre à la question : « le signal est il présent? »), le filtrage (pour faire ressortir le signal d’intérêt), l’estimation (qui consiste à extraire des paramètres du signal d’intérêt). Afin de rendre compte de la réalité physique (fluctuations dues aux composants électroniques, parties du signal inconnues . . .), on utilise généralement un modèle de signal probabiliste. Par ailleurs, les signaux considérés sont des signaux numériques, généralement échantillonnés en temps. C’est pourquoi les signaux étudiés sont modélisés par des vecteurs aléatoires, gaussiens en règle générale. La plupart des algorithmes courants en traitement du signal sont basés sur ce type de modèle et reposent souvent sur l’utilisation de la matrice de covariance du signal et/ou du bruit : filtre adapté, détecteur basé sur le Test du Rapport de Vraisemblance Généralisé, classifieurs . . . En pratique, la matrice de covariance du signal n’est pas connue et doit être estimée. Cette estimation est réalisée à partir de plusieurs réalisations du même vecteur aléatoire. On obtient alors des algorithmes adaptatifs. Cependant, ces algorithmes présentent un inconvénient : ils peuvent nécessiter un nombre d’échantillons important (en lien avec la taille des données) pour obtenir de bons résultats, ceci à cause des propriétés asymptotiques à partir desquels les algorithmes sont construits.

Dans certains cas, il est possible de réduire le nombre d’échantillons nécessaire en exploitant la structure du modèle. La structure peut notamment être utilisée pour faire de l’estimation structurée. Des méthodes ont été développées pour différents type de structure : Toeplitz [19], persymétrie [70, 69] (propriété de symétrie de la matrice de covariance par rapport à l’antidiagonale) … Il existe également des méthodes d’estimation pour des bruits non gaussiens : vraisemblance empirique [73], estimateur de la matrice du point fixe [71, 72], M-estimateurs [64]… Dans ce travail, on s’intéresse à des signaux aléatoires dont la matrice de covariance est de rang faible. Il est alors possible de décomposer le signal en deux sous-espaces orthogonaux à l’aide de la décomposition en valeurs singulières (SVD). Les projecteurs orthogonaux sur chacun de ces sous espaces peuvent alors être construits, permettant de développer des méthodes dites à sous-espace ou rang faible. On distingue deux types de cas. Soit le modèle du signal d’intérêt possède une structure qui se retrouve dans la matrice de covariance. C’est ce type de modèle qui est utilisé pour l’algorithme MUSIC [81] afin d’estimer des directions d’arrivée. Dans d’autres cas, c’est le bruit qui a une structure particulière. Par exemple, le bruit peut se diviser en deux parties : une partie bruit blanc et une partie bruit (partiellement ou totalement) corrélé de rang faible. Le bruit rang faible peut alors être supprimé par projection orthogonale. C’est notamment le cas pour le filtre rang faible [45, 37] et pour le détecteur rang faible [80] en radar. Il a été montré [45, 37] que ces méthodes permettent d’obtenir des performances équivalentes à celles des traitements classiques tout en réduisant significativement le nombre d’échantillons nécessaire.

L’accroissement de la taille des données ne fait que renforcer l’intérêt de ce type de méthode. Toutefois cet accroissement s’accompagne souvent d’un accroissement du nombre de dimensions du système. C’est le cas pour de nombreuses applications : flux vidéo, imagerie hyperspectrale, configuration MIMO en télécommunication [78, 74] … En traitement d’antenne, on peut citer les capteurs capables d’émettre/recevoir dans plusieurs polarisations [82, 66, 35], les configurations MIMO [31, 8, 62]. Les données considérées sont alors qualifiées de multidimensionnelles. Deux types d’approches peuvent être envisagées pour traiter ces données : les méthodes vectorielles et les méthodes tensorielles. Les méthodes vectorielles sont les plus simples à mettre en œuvre. Elles consistent à mettre les données sous forme de vecteurs pour ensuite appliquer les traitements classiques : filtres, détecteurs, méthodes rang faible [66], etc … Elles comportent deux défauts. La taille des vecteurs étant plus importante que dans les cas classiques, les versions adaptatives des ces méthodes nécessitent un nombre d’échantillons important qui peut devenir irréaliste dans des cas pratiques. De plus, lors de la mise sous forme de vecteur, la structure des données est perdue ce qui peut entraîner une dégradation des performances et/ou un manque de robustesse. Les méthodes tensorielles permettent d’éviter cet écueil. Dans ce cas, la structure est préservée en mettant les données sous forme de tableaux multidimensionnels appelés tenseurs. Ces tenseurs peuvent ensuite être traités à l’aide de l’algèbre multilinéaire [47]. En revanche, ces méthodes sont plus complexes à utiliser puisqu’elles nécessitent d’adapter les algorithmes classiques à ce nouveau contexte.

Les outils d’algèbre multilinéaire 

Définition d’un tenseur

Les outils d’algèbre linéaire et plus particulièrement les vecteurs et les matrices, permettent d’indexer des données à l’aide d’un ou deux indices. Lorsque le nombre de dimensions d’un système est supérieur à deux, il est naturel d’introduire un nouvel outil : le tenseur.

Définition 1.1.1 A, un tenseur d’ordre P, est un tableau à P dimensions défini par :

A = {ai1,…,iP}i1∈I1,…,iP ∈IP (1.1)

où ai1,…,iP est un scalaire et I1, . . . , IP sont des sous-ensemble de N. De plus, un tenseur possède aussi la propriété de multilinéarité [63, 23] lors d’un changement de coordonnées. On note C I1×…×IP l’ensemble des tenseurs d’ordre P de dimensions I1 × . . . × IP à valeurs complexes.

On peut facilement définir deux premiers opérateurs sur les tenseurs : l’opérateur somme et la multiplication par un scalaire. La somme de deux tenseurs est définie comme la somme élément par élément. De même, la multiplication par un scalaire est définie comme la multiplication élément par élément. L’ensemble des tenseurs d’ordre P de dimensions I1 × . . . × IP , muni de ces deux opérateurs, forme un espace vectoriel. Cette définition englobe les outils d’algèbre linéaire : un scalaire est un tenseur d’ordre zéro, un vecteur un tenseur d’ordre un et une matrice un tenseur d’ordre deux. La plupart des exemples proposés dans ce travail concerneront les tenseurs d’ordre trois qui permettent d’appréhender les caractéristiques propres aux tenseurs (contrairement aux vecteurs ou aux matrices) tout en étant faciles à représenter . Enfin, de manière analogue au cas matriciel, il existe des structures particulières pour les tenseurs : diagonale, symétrique, hermitienne … Dans ce travail on n’utilisera que la notion de tenseur hermitien.

Définition 1.1.2 Soit H ∈ C I1×…×IP ×I1…×IP un tenseur d’ordre 2P. H est hermitien si et seulement si ses éléments respectent la condition suivante :

hi1,…,ip,j1,…,jp = h∗ j1,…,jp,i1,…,ip pour tout i1, . . . iP et j1, . . . jP . (1.3)

La propriété d’identifiabilité de CP permet de l’utiliser pour faire de l’estimation, en particulier pour des modèles paramétriques où le rang du tenseur est connu. En particulier, CP a été utilisé en psychométrie [20, 38], en chimiométrie [2], en traitement d’antenne [85, 67], en télécommunications [84, 86, 56]. CP a également été utilisé pour faire de l’Analyse en Composantes Principales (ACP) [57]. Des extensions de CP ont été introduites, en particulier en télécommunications : Constrained Tucker [25], CONFAC [24], PARATUCK [26, 30]. Ces décomposions ajoutent des contraintes sur les matrices A(p) . Ces contraintes permettent entre autres de mieux modéliser l’application et d’améliorer les performances en terme d’estimation. Toutes ces décompositions ont des caractéristiques communes :
– Elles ont des conditions d’unicité suffisamment faibles pour pouvoir faire de l’identification de modèle, et donc de l’estimation.
– Elles sont faciles à mettre en œuvre pour des modèles paramétriques.
– Leurs éléments ne sont pas orthogonaux entre eux.
– Contrairement au cas matriciel avec la SVD [27], la meilleure approximation de rang R′ d’un tenseur n’est pas obtenue en sommant R′ éléments de ces décompositions (voir l’exemple donné par Kolda dans [47]).

Par ailleurs, De Lathauwer a proposé un nouvel ensemble de décompositions tensorielles : les block term decompositions [55, 54, 60]. Cette approche permet d’unifier CP et ses extensions ainsi que la décomposition de Tucker. Toutefois les décompositions issues de cet ensemble ne sont pas, en général, orthogonales.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
1 Les outils d’algèbre multilinéaire
1.1 Définition d’un tenseur
1.2 Représentations vectorielles et matricielles
1.3 Opérateurs usuels
1.3.1 Produit scalaire
1.3.2 Norme euclidienne
1.3.3 Produit extérieur
1.3.4 Produit n-mode
1.4 Statistiques tensorielles et estimation
1.4.1 Cas vectoriel
1.4.2 Cas tensoriel
1.5 Décompositions tensorielles
1.5.1 Notion de rang
1.5.2 Candecomp/Parafac
1.5.3 Higher Order Singular Value Decomposition
1.6 Synthèse
2 Performances théoriques d’un algorithme MUSIC tensoriel basé sur la HOSVD et appliqué à des sources polarisées
2.1 MUSIC unidimensionnel
2.1.1 Modèle
2.1.2 Algorithme MUSIC vectoriel
2.1.3 Performances théoriques
2.1.4 Synthèse
2.2 Algorithmes MUSIC pour des sources polarisées
2.2.1 Modèle
2.2.2 Algorithmes MUSIC polarimétriques
2.3 Performances théoriques des algorithmes MUSIC polarimétriques
2.3.1 LV MUSIC
2.3.2 TMUSIC
2.4 Résultats
2.4.1 Paramètres
2.4.2 P = 1 source
2.4.3 P = 2 sources
2.5 Synthèse
3 Alternative Unfolding HOSVD
3.1 Motivations
3.2 Nouveaux opérateurs
3.2.1 Extension des n-rangs
3.2.2 Un nouveau type de dépliement
3.2.3 Un nouveau produit tensoriel
3.3 Alternative Unfolding HOSVD
3.3.1 Définition et existence
3.3.2 Cas particuliers
3.4 Projection orthogonale
3.5 Synthèse
4 Filtrage et détection de données multidimensionnelles comportant une structure rang faible
4.1 Méthodes vectorielles
4.1.1 Modèle
4.1.2 Algorithmes sans hypothèse rang faible
4.1.3 Algorithmes rang faible
4.2 Méthodes tensorielles
4.2.1 Modèle
4.2.2 Algorithmes sans hypothèse rang faible
4.2.3 Algorithmes rang faible
4.3 Synthèse
Conclusion

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *