Le principe général du traitement du signal est d’extraire de l’information à partir d’un ensemble de signaux (numériques ou analogiques), le plus fréquemment électriques mais pouvant être issus de différents types de capteurs : électromagnétiques, acoustiques, optiques . . . Le signal peut généralement se scinder en deux parties : le signal d’intérêt (lié aux informations recherchées) et une seconde partie contenant les perturbations telles que le bruit thermique, les interférences, le fouillis, les brouilleurs … Selon le type d’informations recherchées, on parle de différentes méthodes : détection (qui permet de répondre à la question : « le signal est il présent ? »), le filtrage (pour faire ressortir le signal d’intérêt), l’estimation (qui consiste à extraire des paramètres du signal d’intérêt). Afin de rendre compte de la réalité physique (fluctuations dues aux composants électroniques, parties du signal inconnues . . .), on utilise généralement un modèle de signal probabiliste. Par ailleurs, les signaux considérés sont des signaux numériques, généralement échantillonnés en temps. C’est pourquoi les signaux étudiés sont modélisés par des vecteurs aléatoires, gaussiens en règle générale. La plupart des algorithmes courants en traitement du signal sont basés sur ce type de modèle et reposent souvent sur l’utilisation de la matrice de covariance du signal et/ou du bruit : filtre adapté, détecteur basé sur le Test du Rapport de Vraisemblance Généralisé, classifieurs . . . En pratique, la matrice de covariance du signal n’est pas connue et doit être estimée. Cette estimation est réalisée à partir de plusieurs réalisations du même vecteur aléatoire. On obtient alors des algorithmes adaptatifs. Cependant, ces algorithmes présentent un inconvénient : ils peuvent nécessiter un nombre d’échantillons important (en lien avec la taille des données) pour obtenir de bons résultats, ceci à cause des propriétés asymptotiques à partir desquels les algorithmes sont construits.
Dans certains cas, il est possible de réduire le nombre d’échantillons nécessaire en exploitant la structure du modèle. La structure peut notamment être utilisée pour faire de l’estimation structurée. Des méthodes ont été développées pour différents type de structure : Toeplitz [19], persymétrie [70, 69] (propriété de symétrie de la matrice de covariance par rapport à l’antidiagonale) … Il existe également des méthodes d’estimation pour des bruits non gaussiens : vraisemblance empirique [73], estimateur de la matrice du point fixe [71, 72], M-estimateurs [64]… Dans ce travail, on s’intéresse à des signaux aléatoires dont la matrice de covariance est de rang faible. Il est alors possible de décomposer le signal en deux sous-espaces orthogonaux à l’aide de la décomposition en valeurs singulières (SVD). Les projecteurs orthogonaux sur chacun de ces sous espaces peuvent alors être construits, permettant de développer des méthodes dites à sous-espace ou rang faible. On distingue deux types de cas. Soit le modèle du signal d’intérêt possède une structure qui se retrouve dans la matrice de covariance. C’est ce type de modèle qui est utilisé pour l’algorithme MUSIC [81] afin d’estimer des directions d’arrivée. Dans d’autres cas,
Définition d’un tenseur
Les outils d’algèbre linéaire et plus particulièrement les vecteurs et les matrices, permettent d’indexer des données à l’aide d’un ou deux indices. Lorsque le nombre de dimensions d’un système est supérieur à deux, il est naturel d’introduire un nouvel outil : le tenseur.
Définition 1.1.1 A, un tenseur d’ordre P, est un tableau à P dimensions défini par :
A = {ai1,…,iP}i1∈I1,…,iP ∈IP (1.1)
On peut facilement définir deux premiers opérateurs sur les tenseurs : l’opérateur somme et la multiplication par un scalaire. La somme de deux tenseurs est définie comme la somme élément par élément. De même, la multiplication par un scalaire est définie comme la multiplication élément par élément. L’ensemble des tenseurs d’ordre P de dimensions I1 × . . . × IP , muni de ces deux opérateurs, forme un espace vectoriel. Cette définition englobe les outils d’algèbre linéaire : un scalaire est un tenseur d’ordre zéro, un vecteur un tenseur d’ordre un et une matrice un tenseur d’ordre deux. La plupart des exemples proposés dans ce travail concerneront les tenseurs d’ordre trois qui permettent d’appréhender les caractéristiques propres aux tenseurs (contrairement aux vecteurs ou aux matrices) tout en étant faciles à représenter .
Performances théoriques d’un algorithme MUSIC tensoriel basé sur la HOSVD et appliqué à des sources polarisées
On propose ici une première application de l’algèbre multilinéaire au traitement d’antenne. On va étudier une extension tensorielle de l’algorithme MUSIC [81]. Dans le cas classique, on cherche à estimer les directions d’arrivées de différentes sources à partir des ondes émises par celles-ci et reçues sur un réseau de capteurs. L’algorithme MUSIC consiste alors à construire une fonctionnelle à partir du projecteur sur le sous-espace orthogonal au sous-espace signal, qui permet ensuite d’estimer les directions d’arrivée. Si on dispose de capteurs capables de recevoir dans plusieurs polarisations sous la forme de plusieurs canaux, il est possible d’adapter l’algorithme MUSIC de deux manières. Une première méthode consiste à mettre les données sous forme de vecteurs et d’appliquer l’algorithme MUSIC vectoriel. La seconde méthode consiste à mettre les données sous la forme de matrices et d’appliquer une version tensorielle de MUSIC adapté de [16] basé sur la HOSVD. Le but de ce chapitre est de calculer les performances théoriques des ces deux algorithmes. Ce calcul est basé sur une analyse de perturbations, qui a déjà été utilisée pour la version classique de MUSIC [49]. Ces calculs seront ensuite validés par des simulations de Monte-Carlo, qui permettront également de comparer les deux approches. Une partie de ce travail a fait l’objet d’un article de conférence [15].
MUSIC unidimensionnel
Depuis son introduction dans les années 80 [81], l’algorithme MUltiple SIgnal Classification (MUSIC) s’est imposé comme l’algorithme haute résolution de référence pour la localisation de source. Dans cette section, les principaux résultats concernant MUSIC sont rappelés ainsi que le calcul théorique de l’Erreur Quadratique Moyenne (EQM) des directions d’arrivée des sources.
Algorithmes MUSIC pour des sources polarisées
On considère maintenant un modèle de sources polarisées. Les sources sont supposées émettre dans Nc composantes de polarisations différentes et les capteurs sont capables de recevoir ces différentes composantes. En plus de la direction d’arrivée, les sources sont également caractérisées par leurs paramètres de polarisations, qui seront supposés inconnus et qui devront donc être estimés. Deux modèles de données sont considérés, donnant lieu à deux algorithmes MUSIC associés : un modèle vectoriel auquel l’algorithme MUSIC présenté dans la partie précédente est appliqué et un modèle tensoriel auquel un algorithme MUSIC tensoriel sera appliqué.
|
Table des matières
Introduction
1 Les outils d’algèbre multilinéaire
1.1 Définition d’un tenseur
1.2 Représentations vectorielles et matricielles
1.3 Opérateurs usuels
1.3.1 Produit scalaire
1.3.2 Norme euclidienne
1.3.3 Produit extérieur
1.3.4 Produit n-mode
1.4 Statistiques tensorielles et estimation
1.4.1 Cas vectoriel
1.4.2 Cas tensoriel
1.5 Décompositions tensorielles
1.5.1 Notion de rang
1.5.2 Candecomp/Parafac
1.5.3 Higher Order Singular Value Decomposition
1.6 Synthèse
2 Performances théoriques d’un algorithme MUSIC tensoriel basé sur la HOSVD et appliqué à des sources polarisées
2.1 MUSIC unidimensionnel
2.1.1 Modèle
2.1.2 Algorithme MUSIC vectoriel
2.1.3 Performances théoriques
2.1.4 Synthèse
2.2 Algorithmes MUSIC pour des sources polarisées
2.2.1 Modèle
2.2.2 Algorithmes MUSIC polarimétriques
2.3 Performances théoriques des algorithmes MUSIC polarimétriques
2.3.1 LV MUSIC
2.3.2 TMUSIC
2.4 Résultats
2.4.1 Paramètres
2.4.2 P = 1 source
2.4.3 P = 2 sources
2.5 Synthèse
3 Alternative Unfolding HOSVD
3.1 Motivations
3.2 Nouveaux opérateurs
3.2.1 Extension des n-rangs
3.2.2 Un nouveau type de dépliement
3.2.3 Un nouveau produit tensoriel
3.3 Alternative Unfolding HOSVD
3.3.1 Définition et existence
3.3.2 Cas particuliers
3.4 Projection orthogonale
3.5 Synthèse
4 Filtrage et détection de données multidimensionnelles comportant une structure rang faible
4.1 Méthodes vectorielles
4.1.1 Modèle
4.1.2 Algorithmes sans hypothèse rang faible
4.1.3 Algorithmes rang faible
4.2 Méthodes tensorielles
4.2.1 Modèle
4.2.2 Algorithmes sans hypothèse rang faible
4.2.3 Algorithmes rang faible
4.3 Synthèse
Conclusion