Introduction : estimation des paramètres statistiques en traitement de signal
Nous nous proposons ici de récapituler les principales méthodes existant, pour estimer les statistiques du second ordre de données reçues. Le moment d’ordre un (la moyenne), sera considéré comme connu et supposé nul. En effet, cette dernière hypothèse revient simplement à considérer des données dont on connaît la moyenne et qui ont été recentrées. L’hypothèse de moyenne nulle est faite dans de nombreuses applications (radar, localisation de source) permettant à cette étude de rester proche de nombreux cas réels. Les évolutions entre deux méthodes, sont parfois directement liées aux évolutions technologiques : en radar par exemple, le modèle des données gaussiennes a longtemps été utilisé et validé pour estimer les échos du sol et de l’environnement en général. Puis la haute résolution est apparue. Avec la nouvelle précision obtenue, il s’est vite avéré que le modèle gaussien était non seulement très loin de la réalité mais qu’en plus les détecteurs et techniques basés sur l’ancien modèle n’étaient plus du tout fiables. On a alors eu l’idée de s’inspirer de ce qu’il se passe en réalité : avec cette haute résolution, l’environnement n’est pas assimilable à un bruit relativement homogène mais on y discerne différentes zones, une texture en quelque sorte. Ainsi, on peut considérer que le bruit est toujours gaussien mais avec une puissance variable en fonction de l’endroit. C’est ainsi que l’utilisation des distributions gaussiennes-composées a commencé à se répandre dans les applications de traitement de signal, et notamment en radar. Il a fallu également adapter les estimateurs de paramètres statistiques ainsi que les techniques associées. Tout cela sera repris en détail dans les sections suivantes. Par ailleurs, les évolutions ne s’arrêtent pas aux distributions gaussiennes-composées. En effet, celles-ci ne sont en réalité qu’un cas particulier d’une famille de distributions plus grande, très flexible et aux propriétés déjà beaucoup étudiées par les statisticiens : les distributions elliptiques. Le fait est qu’elles sont pratiquement inutilisées en traitement de signal, en dehors de quelques rares exceptions [64]. Une raison probable est qu’elles n’ont été étendues au cas complexe que très récemment et qu’en traitement de signal, les données sont très souvent complexes. A noter d’ailleurs, que dans des domaines tels que la finance où les données à traiter sont réelles, l’abandon du modèle gaussien s’est fait très souvent au profit des données elliptiques. La littérature des distributions elliptiques se retrouve donc très souvent dans le cadre d’applications liées à la finance. La dernière partie de ce chapitre sera donc consacrée aux distributions elliptiques. Avant d’entrer plus en détail dans les distributions gaussiennes-composées, elliptiques ou autres, posons le cadre de l’étude en décrivant les hypothèses classiques du traitement de signal.
Qu’est ce qu’un estimateur robuste ?
Dans le premier chapitre, nous avons vu que pour améliorer l’estimation de paramètres, l’objectif est d’utiliser un bon modèle afin d’utiliser ensuite l’EMV correspondant. Cette méthode conduit à des estimateurs asymptotiquement efficaces mais pas forcément robustes. En effet, l’estimateur robuste sera plutôt celui qui reste toujours assez fiable, quelles que soient les données de départ, à défaut d’être optimal dans certains cas de figures. Dans un contexte réel, bien que les distributions elliptiques offrent de très grandes possibilités de distributions, il n’en reste pas moins que le risque existe, que des données ne suivent pas le modèle considéré. On ne prendra pas en compte ici, toutes les techniques qui consistent en un pré-traitement de données, afin de pouvoir parfaitement les maîtriser. Ainsi, les modèles utilisés correspondent toujours à des simplifications de la réalité. La caractéristique qui permet alors à une légère déviation entre la réalité et le modèle supposé, de n’avoir pas ou peu d’influence sur le paramètre estimé, est précisément la robustesse de l’estimateur. Pour en revenir aux estimateurs optimaux (EMV), un léger éloignement au modèle ne permet pas de conclure à une légère chute de performances. Pour résumer, une approche robuste de la modélisation et de l’analyse de données pourrait se définir, de façon abstraite, comme une manière d’obtenir sur un modèle approximativement exact, des résultats approximativement valides. En pratique cela signifie des méthodes fiables, pour lesquelles un intervalle de confiance peut être établi. Ainsi, la robustesse doit d’une manière ou d’une autre pouvoir être mesurée. Des critères doivent permettre de déterminer comment les erreurs peuvent influencer un estimateur et dans quelle mesure l’estimation d’un paramètre peut être faussée. De nombreux auteurs se sont posés ces questions, menant à la formalisation d’une théorie de la robustesse.
Conclusion
Synthèse Partant de la constatation simple que la haute résolution et la modernisation des applications actuelles amènent les traiteurs de signaux à analyser des données qui ne vérifient plus le modèle classiquement admis de données gaussiennes, nous nous sommes penchés, dans un premier chapitre, sur les problèmes qui en découlaient et solutions qui ont pu être apportées ces dernières années. Première conséquence de cette inadéquation statistique : de nombreux traitements, optimisés pour fonctionner en milieu gaussien voient leurs performances décroître. Nous nous sommes intéressés plus particulièrement au problème d’estimation de matrice de covariance. En effet, dans de nombreuses applications, ce paramètre permet la prise en compte du milieu. En radar par exemple, c’est l’injection de cette information dans le détecteur qui en fait un traitement adaptatif. L’EMV en milieu gaussien étant la SCM, c’est précisément cet estimateur qui est en cause dans la chute des performances en milieu non-gaussien. L’idée première est donc de mieux modéliser les données, afin de trouver ensuite l’EMV correspondant. Le problème, est que les données ne se sont pas éloignées du modèle gaussien au profit d’une seule et même distribution. L’amélioration des techniques a plutôt conduit à une diversification des comportements. Ce dernier dépend de l’application, du milieu… et ainsi, il existe une multitude de distributions modélisant différents contextes, chacune ayant un EMV, lui-même étant parfois impossible à obtenir. De nombreux traiteurs de signaux ont donc proposé le modèle des distributions gaussiennes-composées. Elles sont assez générales et correspondent au produit d’un vecteur gaussien par une variable de distribution inconnue, sensée permettre la modélisation de la plupart des situations. De nombreuses études montrent qu’elles modélisent effectivement très bien de nombreux milieux, en particulier en radar [41], [80], [32], [89], [90], [15], [16], [72], [29]. L’intérêt de ces distributions, est qu’il s’en dégage un seul et même EMV approché, qui ne nécessite pas la connaissance de la distribution de la variable inconnue. Cet estimateur, l’estimateur FP, a été étudié notamment dans la thèse de F. Pascal [67]. Puis, s’inspirant d’autres domaines tels que la finance, nous avons poussé la généralisation des distributions plus loin : les distributions elliptiques contiennent à la fois la distribution gaussienne et toutes les distributions gaussiennes-composées. Elle correspondent en fait à n’importe quelle distribution dépendant uniquement de la norme des données blanchies par la matrice de covariance. Cette forme quadratique particulière est également appelée distance de Mahalanobis [50]. Pour certaines distributions elliptiques, la matrice de covariance n’existe pas. Mais la matrice de dispersion, paramètre inhérent à la distribution elliptique, peut, elle, toujours être calculée. Lorsque la matrice de covariance existe, cette matrice de dispersion est proportionnelle à la première. Dans le cas complètement général des distributions elliptiques, nous ne disposons pas d’EMV approché. Bien sûr, pour chaque distribution particulière un EMV peut être obtenu, mais bien souvent, la seule information dont on dispose sur le milieu, est qu’il est probable qu’il ne suive pas une loi gaussienne. On espère alors qu’il puisse être modélisé par une distribution elliptique. Dans le chapitre 2, nous avons introduit le concept de robustesse tel que décrit par Huber en 1964 [36],[39], dans ce que nous appellerons les prémices d’une théorie de la robustesse. Il propose en effet des estimateurs robustes sur l’ensemble des distributions elliptiques. Ceux-ci ne sont pas forcément les EMV d’une distribution particulière, mais quelle que soit la distribution elliptique, on s’assure des performances minimales et une faible influence des perturbations ou données aberrantes. Ces estimateurs, construits de manière analogue aux EMV sont alors appelés M-estimateurs, le M signifiant « Maximum Likelihood Type ». Nous avons ensuite comparé la robustesse de ces M-estimateurs à celle de l’estimateur FP et de la SCM. Ainsi, si les M-estimateurs et l’estimateur FP ont une robustesse très proche, l’instabilité de la SCM en milieu non-gaussien ou lorsque des perturbations sont présentes, a été mis en évidence. Pour cela nous avons utilisé des outils issus de la théorie de la robustesse dont notamment, la fonction d’influence introduite par Hampel en 1971 [35], [34]. En grossissant le trait, l’estimateur FP a donc en quelque sorte, une robustesse « à toute épreuve », c’est-à-dire quelle que soit la distribution elliptique et quelles que soient les perturbations (à condition de ne pas dépasser le point de rupture). Les résultats sont souvent légèrement moins bons en ce qui concerne les M-estimateurs, mais grâce à leurs paramètres de réglages, il peuvent dans certains cas, atteindre le maximum de vraisemblance. Nous avons ensuite étudié dans le chapitre 3, les performances de ces différents estimateurs. Après avoir obtenu la distribution asymptotique des M-estimateurs, une propriété particulière s’est dégagée. Elle se généralise à tout estimateur donnant une matrice hermitienne et dont la variance asymptotique suit une forme particulière décrite dans le chapitre. Cette propriété s’applique aux traitements modélisables par des fonctions homogènes d’ordre zéro qui à une matrice (estimée), associent un paramètre d’intérêt. En d’autres termes, elle s’applique aux traitements dans lesquels la matrice de covariance n’a besoin d’être connue qu’à un facteur près. Cette propriété permet d’obtenir la distribution asymptotique du paramètre d’intérêt et celle-ci a de particulier, que pour tous les estimateurs vérifiant les conditions précédemment citées, la variance asymptotique est la même à un coefficient près. L’intérêt principal de cette propriété réside dans le fait que les propriétés statistiques de nombreuses applications sont connues dans le cas classique gaussien. De plus, la plupart de ces applications vérifient également la condition d’homogénéité d’ordre zéro. Ainsi, en substituant les M-estimateurs ou l’estimateur FP à la SCM dans ces applications, les propriétés statistiques asymptotiques du paramètre d’intérêt peuvent facilement être obtenues : en multipliant les données à utiliser par un certain coefficient, on retrouve en effet le même comportement qu’avec la SCM en gaussien. Différentes applications telles que le radar adaptatif, la détection en hyperspectral ou la localisation de direction d’arrivée par la méthode MUSIC, ont permis tout au long de cet ouvrage, d’illustrer l’intérêt pratique de nos résultats. En particulier, dans le chapitre 4 nous nous sommes penchés plus particulièrement sur le cas de la détection en radar ou en imagerie hyperspectral. Les simulations sur données réelles ou de synthèse, ont montré que l’utilisation des M estimateurs ou de l’estimateur FP, apportant robustesse et parfois optimalité, est facilitée par nos résultats théoriques. En effet, des courbes telles que la relation Pfa-seuil, peuvent se déduire de celle de la SCM en gaussien, déjà connue. Le résultat des M-estimateurs et de l’estimateur FP est cependant moins immédiat car il nécessite un algorithme itératif. Nous avons donc réalisé de nombreuses simulations afin de tester sa convergence sous différentes configurations. Celles-ci permettent de montrer que dans toutes les conditions normales d’utilisations, les algorithmes itératifs donnant les estimateurs convergent rapidement.
|
Table des matières
Introduction
1 Etat de l’art
1.1 Estimation de paramètres statistiques
1.2 Modélisation de données et définitions importantes
1.3 Première approche : hypothèses classiques en traitement de signal
1.3.1 La Sample Covariance Matrix
1.4 Seconde approche : les distributions gaussiennes-composées
1.4.1 Vecteurs gaussiens-composés
1.4.2 Exemples de GCV
1.4.3 L’estimateur du Point-Fixe
1.4.4 Comparaison de la robustesse et des performances du Point-fixe par rapport à la SCM
1.4.5 Simulation MUSIC pour comparer l’estimateur FP et la SCM
1.5 Troisième approche : les distributions elliptiques
1.5.1 Les distributions elliptiques réelles
1.5.2 Les distributions elliptiques complexes généralisées
1.5.3 Les distributions elliptiques complexes (circulaires du second-ordre)
1.5.4 Lien avec les distributions sphériques
1.5.5 Lien avec les distributions gaussiennes-composées
1.5.6 Cas particulier des distributions gaussiennes complexes généralisées
1.6 Estimateurs du Maximum de Vraisemblance de la matrice de covariance, dans le cadre des distributions elliptiques
1.7 Illustrations : distribution elliptique réelle
1.8 Synthèse
2 Théorie de la robustesse
2.1 Théorie de la robustesse
2.1.1 Qu’est ce qu’un estimateur robuste ?
2.1.2 Théorie de la robustesse
2.2 Les M-estimateurs
2.2.1 Matrices de dispersion et de pseudo-dispersion
2.2.2 Définition des M-estimateurs
2.2.3 Exemples de M-estimateurs
2.3 Critères de robustesse
2.3.1 Fonction d’influence
2.3.2 Point de rupture
2.3.3 Biais asymptotique et biais asymptotique maximum
2.3.4 Synthèse
2.4 Application des critères de robustesse aux différents estimateurs étudiés
2.4.1 Fonction d’influence
2.4.2 Point de rupture
2.4.3 Biais asymptotique
2.5 Synthèse
3 Performances statistiques des estimateurs
3.1 Distribution asymptotique de la SCM et de l’estimateur FP
3.1.1 Distribution asymptotique de la SCM
3.1.2 Distribution asymptotique de l’estimateur FP
3.2 Distribution asymptotique des M-estimateurs
3.2.1 Distribution asymptotique des M-estimateurs réels
3.2.2 Distribution asymptotique des M-estimateurs complexes
3.3 Propriétés particulières des estimateurs étudiés
3.3.1 Cas réel
3.3.2 Cas complexe
3.3.3 Exemple : variance asymptotique de l’équivalent complexe du M-estimateur de Huber
3.3.4 Etude du coefficient ν1
3.4 Simulation sur la méthode MUSIC
3.5 Synthèse
4 Mise en oeuvre sur des applications de traitement du signal
4.1 Contexte
4.1.1 Problème de détection des traitements adaptatifs
4.1.2 Détecteur utilisé : Adaptive Normalized match filter (ANMF)
4.2 Performances de l’ANMF en fonction de l’estimateur utilisé
4.2.1 Relation Pfa-seuil des M-estimateurs
4.3 Caractéristiques de mise en oeuvre des estimateurs
4.3.1 Vitesse de convergence du M-estimateur d’Huber
4.3.2 Vitesse de convergence du M-estimateur issu d’une t-distribution
4.4 Applications
4.4.1 Traitements spatio-temporels adaptatifs (STAP)
4.4.2 Détection en imagerie hyperspectral
4.5 Synthèse
Conclusion
Télécharger le rapport complet