Performances d’estimation, résultats pour des signaux comportant des ruptures

Télécharger le fichier pdf d’un mémoire de fin d’études

Estimation et performances pour des signaux réels : contexte et notions générales

Notations et cadres d’estimation
Comme nous l’avons vu en introduction, le signal étudié comporte généralement une part aléatoire, provenant par exemple des perturbations auxquelles il peut être soumis. Nous supposons que ce signal est échantillonné, car issu d’un système d’acquisition. Celui-ci peut être composé d’un seul ou de plusieurs capteurs. Si le signal observé n’est issu que d’un seul capteur, il consiste en un vecteur, noté x, qui contient toutes les observations relevées par le système d’acquisition, i.e., x , [x1; x2; : : : ; xN ]. Si le signal observé est issu d’un nombre M de capteurs, il prend la forme d’une matrice, notée X, dont les vecteurs colonnes contiennent les valeurs relevées par chacun des capteurs à un instant donné, i.e., X , [x1; x2; : : : ; xN ] avec, pour n = 1; : : : ; N, xn , [x1;n; x2;n; : : : ; xM;n]T. On suppose, dans tout ce manuscrit, que la phase d’acquisition du signal X est terminée, c’est-à-dire que sa dimension N est fixée et n’augmente donc pas au cours du temps. L’espace des observations, dans lequel X prend ses valeurs, est noté . Dans la majeure partie de ce manuscrit, nous supposerons que le signal étudié est réel, i.e., RM  N (un seul cas de signal complexe sera considéré au chapitre 4, section 4.2.2.2, avec M = 1 ; dans ce cas on aura donc CN ).
Pour chaque problème étudié, le modèle considéré est différent. Ce modèle prend en général la forme d’une ou plusieurs équations qui relient le signal observé X à l’information utile recherchée. Celle-ci correspond à une ou plusieurs grandeurs inconnues du problèmes, appelées paramètres d’intérêt, et regroupées dans un vecteur , [ 1; : : : ; R]T, de taille R (nombre total de paramètres inconnus).
Dans la suite de ce chapitre, on considère le cas de M = 1 capteur ; le signal observé est donc noté x. Son caractère aléatoire, ainsi que l’influence de sur ce signal observé, sont décrits par la distribution de x (paramétrée par  ) au sens large :
— si les données observées sont des variables aléatoires absolument continues (i.e.,RN ), alors la distribution de x correspond à une fonction de densité de probabilité notée px; (x ;  ) ou pxjθ(x j θ =  ), selon que le vecteur  est supposé déterministe ou aléatoire (voir ci-après pour davantage de précisions) ;NN ).
—si les données observées sont des variables aléatoires discrètes (i.e., distribution de x correspond à une fonction de masse notée Pr(x = x ;  ) si  est supposé déterministe, ou Pr(x = x j θ =  ) si   est supposé aléatoire. Dans les deux cas, cette fonction de masse correspond à la probabilité que le vecteur aléatoire x prenne la valeur du vecteur observé x, pour tout x, lorsque le vecteur de paramètres vaut  .
Dans la suite, on s’affranchira de la distinction entre densité de probabilité et fonction de masse, et nous utiliserons toujours la notation de densité de probabilité. Pour autant, les résultats énoncés peuvent aisément se généraliser au cas d’une fonction de masse (ce cas figurera d’ailleurs parmi les exemples étudiés). De plus, pour ne pas alourdir les notations, nous omettrons l’écriture des variables aléatoires (comme x par exemple) dans le nom des fonctions de densité de probabilité, dans les cas où cela ne prêtera pas à ambiguïté. Ainsi, la distribution des observations sera simplement notée p(x ; ), ou p(x j ), les arguments des fonctions indiquant clairement quelles sont les variables aléatoires associées. La fonction p(x ; ) (ou p(x j )) est communément appelée vraisemblance des observations (pour une valeur du vecteur de paramètres donnée ).
En ce qui concerne la distinction entre les deux notations p(x ; ) et p(x j ), elle provient de la nature supposée du vecteur , et donc du cadre d’estimation qui est choisi : dans le cas où on note p(x ; ), le vecteur de paramètres est supposé déterministe, avec une vraie valeur notée ? ; dans l’autre cas, où on note p(x j ), le vecteur est supposé aléatoire 1. On lui attribue alors une distribution dite « a priori » notée ( ) et supposée connue, qui décrit l’ensemble des informations connues sur le vecteur avant l’exécution de la procédure d’estimation (a priori). Cette distribution peut être continue, discrète, ou mixte (c’est-à-dire que certaines composantes de sont des variables aléatoires continues, et que d’autres sont discrètes), suivant la nature des différents paramètres 1; : : : ; R composant .
En résumé, le problème d’estimation peut s’énoncer de la manière suivante : on cherche à estimer, avec le plus de précision possible, la valeur du vecteur de paramètres à partir des N échantillons du signal x dont on dispose. Autrement dit, on cherche un estimateur de qui s’exprime comme une fonction des données x1; : : : ; xN , et qu’on notera donc b(x) , b(x1; : : : ; xN ). Notons que puisque les données x sont aléatoires, l’estimateur b(x) est lui-même un vecteur aléatoire. Ainsi, le comportement, et donc la précision/les performances de ce vecteur aléatoire, seront entièrement décrits par sa distribution, c’est-à-dire sa fonction de répartition. Si est un vecteur de paramètres continus, on pourra se contenter de la fonction de densité de probabilité, tandis que si est un vecteur de paramètres discrets, on pourra s’en tenir à la fonction de masse de b(x). Enfin, le vecteur peut tout aussi bien être composé d’un mélange de paramètres continus et discrets, auquel cas la distribution sera mixte.
Estimation et performances pour des signaux réels : contexte et notions générales
Dans les sections suivantes, nous présentons séparément le cas où le vecteur est supposé déterministe, qui correspond au cadre de l’estimation fréquentiste, du cas où est supposé aléatoire, qui correspond au cadre de l’estimation bayésienne. Bien que ceux-ci aient historiquement souvent été mis en opposition, il existe des liens entre les deux points de vue (voir [Rob07]), et ils peuvent même être combinés : pour certains problèmes, on dispose d’informations a priori sur certaines composantes du vecteur de paramètres à estimer, mais pas sur d’autres. Ce cadre d’estimation est alors qualifié d’« hybride » [RS87, RM97, TW07, RGC+15, Ren15].

Estimation de paramètres déterministes (approche fréquentiste)

Dans un premier temps, nous nous plaçons dans le contexte de l’estimation dite « fréquentiste », où les paramètres inconnus sont supposés déterministes. Nous présentons d’abord, dans la section 2.1.2.1, quelques critères permettant d’évaluer les performances d’estimation, puis, dans la section 2.1.2.2, quelques estimateurs couramment utilisés dans le cadre fréquentiste.
Performances d’estimation
Critères de performance les plus courants D’une manière générale, pour un vecteur de paramètres inconnu dont la vraie valeur est ?, on peut évaluer la qualité d’un estimateur b, fondé sur les observations x, à partir de l’erreur commise, notée  » :  »  (x);  ? , (x)   ?; (2.1) où l’on met en avant la dépendance de l’erreur selon
i) l’estimateur b;
ii) les données observées x ;
iii) la vraie valeur du vecteur de paramètre inconnu,  ?.
Comme mentionné dans la section 2.1.1, un estimateur b est une variable aléatoire en raison de la nature elle-même aléatoire du signal observé x. L’erreur  » b(x); ? ainsi définie peut donc être très différente suivant la réalisation du signal observé x. C’est pourquoi on s’intéressera plutôt à une erreur moyennée par rapport à toutes les valeurs que peut prendre le signal x.
Ces définitions permettent de rendre compte de la qualité d’un estimateur. Néanmoins l’information la plus complète est donnée par la distribution (densité de probabilité, fonction de masse ou de répartition) de l’estimateur en question, puisque c’est elle qui décrit entièrement son comportement. Si l’on connaît cette distribution, il est généralement facile d’accéder au biais, à la variance ou à l’EQM de l’estimateur. Ainsi, lorsqu’on le peut, on cherche à calculer cette distribution. Mais à moins de s’intéresser à un estimateur particulièrement simple, le calcul de sa distribution est souvent compliqué. Cela est d’autant plus vrai que la dimension de l’espace des paramètres (soit le nombre de paramètres à estimer R) est grand. On peut aboutir à une expression difficilement interprétable, ou non analytique, c’est-à-dire qui n’admet pas de forme explicite, de l’estimateur considéré. Dans de pareils cas, on peut être amené à s’intéresser uniquement à ses moments, en particulier son biais et sa variance.
Dans l’approche fréquentiste de l’estimation de paramètres, on s’intéresse particulièrement aux performances asymptotiques des estimateurs, c’est-à-dire lorsque le nombre d’observations N utilisées dans la procédure d’estimation tend vers l’infini. En effet, on peut intuitivement penser que plus le nombre d’échantillons sur lequel repose l’estimation est grand, plus riche sera l’information apportée sur le vecteur de paramètres à estimer , et meilleure sera la qualité d’estimation.
Mais comment déterminer la variance/l’EQM minimale qu’un estimateur peut atteindre 3 ? La réponse à cette question est donnée par les bornes de Cramér-Rao, qui apparaissent dans l’énoncé du théorème suivant [Fre43, Dar45, Rao45, Cra46, Van68], dont la démonstration sera donnée dans la section 2.1.5.
Les bornes de Cramér-Rao fournissent donc, parfois facilement, l’EQM ou la variance minimale qu’un estimateur non biaisé peut espérer atteindre. Notons donc qu’elles ne dépendent pas d’un estimateur en particulier, mais qu’elles sont valables pour un ensemble d’estimateurs, en l’occurrence, pour les BCR, les estimateurs non biaisés. On verra aussi qu’elles peuvent dans certains cas permettre de déterminer un bon estimateur. De plus, si la théorie permet d’affirmer qu’un estimateur atteint la borne, alors le calcul de celle-ci fournit directement une valeur de la variance de cet estimateur. Un estimateur non biaisé qui atteint la BCR est dit « efficace » (en traitement du signal). Lorsqu’un estimateur est seulement asymptotiquement (i.e., à grand nombre d’observations ou grand RSB) non-biaisé, et atteint seulement asymptotiquement la BCR, on parle d’estimateur « asymptotiquement efficace ».

Estimateurs classiques

Estimateur MVU 
Nous avons donc vu deux critères possibles pour caractériser un bon estimateur : un biais nul et une variance minimale, c’est-à-dire égale à la borne de Cramér-Rao. Même si dans la pratique, on ne pourra pas toujours satisfaire ces deux critères, ils permettent néanmoins de définir un estimateur optimal, à savoir l’estimateur non-biaisé à minimum de variance, qui sera dans la suite abrégé par MVU (pour Minimum Variance Unbiased).
Ce théorème fournit un outil puissant pour déterminer l’estimateur MVU, et illustre l’utilité des BCR pour cela. Toutefois, la condition (2.20) n’est satisfaite en pratique que dans le cas de modèles linéaires. Mentionnons en outre que même si la condition (2.20) n’est pas satisfaite, l’estimateur MVU peut tout de même exister, sans que celui-ci ne soit efficace. Cela passe alors par la recherche d’une statistique exhaustive. Pour plus de détails sur ce type d’approche, nous reportons le lecteur à [Kay93, Chapitre 5].
Estimateur du maximum de vraisemblance
Lorsque l’estimateur MVU n’existe pas, ou qu’il est très difficile à dériver, une alternative très souvent utilisée dans la pratique est l’estimateur du maximum de vraisemblance, que nous abrégerons dans la suite par ML (pour Maximum Likelihood, en anglais). Son principe est assez intuitif, puisqu’il s’agit de rechercher la valeur du paramètre qui rend l’observation du signal x la plus vraisemblable, c’est-à-dire qui maximise la fonction de vraisemblance p(x ; ). Notons bien ici que même si p(x ; ) est une fonction de x (ce qui implique bien sûr, comme on l’a vu, la dépendance de l’estimateur en x), la valeur de x est ici fixée puisqu’il s’agit du signal que l’on a observé. Dans ce cas, la vraisemblance correspond à p(x ; )
Remarque : Parmi les conditions de régularité énoncées dans [LC03, Théorème 5.10, p.463], on notera que figure l’existence d’au moins trois dérivées successives de la log-vraisemblance ln p(x ; ) par rapport aux paramètres. Ainsi, pour des paramètres discrets, ces dérivées n’existent pas, donc cette condition n’est pas satisfaite. Le théorème 3 ne s’applique donc pas dans ce cas.
Le théorème 3 énoncé ci-dessus concerne la convergence de l’estimateur ML en terme du nombre d’échantillons N. Nous pouvons mentionner qu’il existe des résultats de convergence de l’estimateur ML en terme du rapport signal sur bruit (RSB). C’est le cas en particulier pour un signal x gaussien, distribué selon le modèle 5 x N (m( ?); 2C), dont la moyenne est une fonction du vecteur de paramètres inconnu . Il a été montré que lorsque le RSB tend vers l’infini (i.e., lorsque 2 tend vers 0), on obtient (1= )( ML ? L 2 )F 1 ( ? )), c’est-à-dire ) ! N(0;(1= que l’estimateur ML est asymptotiquement gaussien et efficace [RFCL06]. Cela n’est par contre plus valable par exemple dans le cas où la matrice de covariance est elle aussi fonction du vecteur de paramètres à estimer ? [RFBL07].
Ainsi, dès lors que l’on dispose de la fonction de vraisemblance, il semble possible d’implémenter l’estimateur ML, puisqu’il s’agit de maximiser une fonction, ce qui correspond à un problème relativement standard, en tout cas largement documenté. En effet, s’il est parfois possible d’en obtenir une expression analytique, on doit en revanche recourir à des méthodes numériques d’optimisation multidimensionnelle lorsque ce n’est pas le cas. De plus, on ne dispose pas non plus toujours d’expressions analytiques de son biais ou de sa variance. Pour en obtenir des valeurs approchées, on recourt en général à des méthodes de simulation dites « de Monte-Carlo ». Elles consistent à générer indépendamment un certain nombre de réalisations NMC du signal x (réalisations que l’on notera x(1); x(2); : : : ; x(NMC)) selon le modèle spécifié, et pour chacune d’elle, à procéder à l’estimation (ML ou autre), donnant ainsi lieu à une séquence d’estimées b x(1) ; b x(2) ; : : : ; b x(NMC ) .
Cette estimation a loi des grands nombres, qui stipule que le membre de droite de (2.23) tend vers le membre de gauche lorsque NMC tend vers l’infini. De plus, pour un nombre de simulations NMC donné, l’écart-type de l’estimateur de l’EQM ainsi mis en place est proportionnel à 1=NMC. Cela implique une vitesse de convergence relativement faible, et un nombre de tirages NMC important sera donc nécessaire pour obtenir une estimation fiable de la grandeur approchée.
La complexité de la procédure d’estimation mise en place (qui peut correspondre à la résolution d’un problème d’optimisation dans le cas de l’estimateur ML) combinée au nombre NMC souvent important de simulations de Monte-Carlo nécessaire à l’obtention d’une bonne estimation de l’EQM se solde par un coût calculatoire qui peut être prohibitif. C’est une autre justification de l’intérêt de disposer de bornes inférieures de l’EQM.
En résumé, plusieurs raisons nous poussent à nous intéresser au calcul de bornes inférieures de l’EQM : premièrement, elles dépendent uniquement du problème d’estimation considéré, et pas d’un estimateur en particulier (elles sont valables pour une famille d’estimateurs, par exemple non biaisés). Deuxièmement, on peut dans certains cas prouver qu’une borne peut être atteinte, éventuellement pour un nombre d’observations qui tend vers l’infini (voir Théorème 3) [Kay93, LC03] ou à fort rapport signal à bruit (RSB) [RFCL06]. Cela signifie alors que cette borne fournit une valeur précise de l’EQM minimale théorique dans ces régimes asymptotiques. Enfin, de telles bornes peuvent souvent s’exprimer sous une forme analytique (ou, comme on le verra pour d’autres bornes que la BCR, semi-analytique), par exemple pour des distributions des observations gaussiennes [Sle54,Ban71,Kay93], elliptiques [PR10,BA13,GG13] ou autres [TRB+14]. Cela signifie qu’une évaluation de l’EQM minimale théorique peut être effectuée avec un faible coût de calcul. Dans tous les cas, elles forment une référence grâce à laquelle on peut comparer différents estimateurs.
Avant de présenter d’autres bornes inférieures de l’EQM que la BCR, nous présentons les autres cadres d’estimation considérés dans cette thèse : les points de vue bayésiens et hybrides.

Estimation de paramètres aléatoires (approche bayésienne)

Dans l’approche bayésienne, on suppose que le vecteur de paramètres inconnus est un vecteur aléatoire. Le fait de « probabiliser l’inconnu » implique ici d’attribuer à une loi a priori ( ) qui résume l’information disponible sur avant la procédure d’estimation.
Critères de performance en estimation bayésienne
En estimation bayésienne, les critères de performance se basent sur une fonction positive dite « de coût », que l’on pourra noter C( ; b) ; elle peut correspondre à un type d’erreur de l’estimateur b lorsque le paramètre à estimer vaut , mais pas seulement. Plus généralement, c’est une fonction qui pénalise une erreur de l’estimée b(x). Comme cette dernière est une variable aléatoire qui dépend du signal observé x, on peut comme on l’a fait en utilisant le point de vue fréquentiste, moyenner ce coût par rapport à la vraisemblance des observations (cette fois notée p(x j ), puisque est ici supposé aléatoire) sur toutes les observations possibles x, pour obtenir une évaluation plus objective de l’estimateur b qui ne dépendrait ainsi pas de l’expérience menée.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction 
1.1 Contexte de la thèse et motivations
1.2 Résultats
2 Performances d’estimation, résultats pour des signaux comportant des ruptures
2.1 Estimation et performances pour des signaux réels : contexte et notions générales
2.1.1 Notations et cadres d’estimation
2.1.2 Estimation de paramètres déterministes (approche fréquentiste)
2.1.2.1 Performances d’estimation
2.1.2.1.1 Critères de performance les plus courants
2.1.2.1.2 Bornes de Cramér-Rao
2.1.2.2 Estimateurs classiques
2.1.2.2.1 Estimateur MVU
2.1.2.2.2 Estimateur du maximum de vraisemblance
2.1.3 Estimation de paramètres aléatoires (approche bayésienne)
2.1.3.1 Critères de performance en estimation bayésienne
2.1.3.2 Estimateurs bayésiens
2.1.3.2.1 Estimateur de la médiane a posteriori (cas scalaire)
2.1.3.2.2 Estimateur de la moyenne a posteriori
2.1.3.2.3 Estimateur du maximum a posteriori
2.1.3.3 Aperçu de quelques propriétés asymptotiques des estimateurs bayésiens
2.1.4 Estimation hybride
2.1.5 Bornes inférieures de l’EQM
2.1.5.1 L’inégalité de covariance
2.1.5.2 Bornes pour l’estimation de paramètres déterministes
2.1.5.2.1 Borne de Cramér-Rao
2.1.5.2.2 Bornes de Barankin
2.1.5.3 Bornes bayésiennes
2.1.5.3.1 Borne de Cramér-Rao bayésienne
2.1.5.3.2 Borne de Weiss-Weinstein
2.1.5.4 Combinaison de bornes, bornes hybrides
2.1.5.4.1 Combinaison de bornes bayésiennes : la borne (combinée) de Cramér-Rao/Weiss- Weinstein bayésienne (BCRWWB)
2.1.5.4.2 Bornes hybrides : la borne hybride de Cramér-Rao/Weiss- Weinstein
2.2 Estimation des paramètres de signaux comportant des points de rupture
2.2.1 La localisation de ruptures dans un signal échantillonné : formulation(s) du problème
2.2.2 Cas d’un seul point de rupture
2.2.3 Points de rupture multiples
2.3 Bornes inférieures de l’EQM (déterministes) pour l’estimation de points de ruptures
2.3.1 Bornes de type Cramér-Rao
2.3.2 Bornes de type Barankin
2.3.2.1 Borne de Chapman-Robbins pour la localisation d’un unique point de rupture
2.3.2.2 Borne de type Barankin pour la localisation de plusieurs points de rupture
3 Nouvelles bornes inférieures de l’EQM pour des signaux comportant des ruptures
3.1 Borne de Weiss-Weinstein pour l’estimation des points de rupture
3.1.1 Modèle multivarié
3.1.2 Méthode pour le calcul de la borne
3.1.3 Expression de la matrice G(H; s)
3.1.4 Influence de la distribution a priori
3.1.4.1 Expressions de M(ha; hb; k)
3.1.4.1.1 Cas ts : b > a + 1
3.1.4.1.2 Cas diag : b = a
3.1.4.1.3 Cas psdiag : b = a + 1
3.1.4.2 Expressions de (ha; hb; k)
3.1.4.2.1 Cas diag : b = a
3.1.4.2.2 Cas psdiag : b = a + 1
3.1.4.2.3 Cas ts : b > a + 1
3.1.4.3 Expressions de e~(ha;hb) et des éléments de la matrice G
3.1.4.3.1 Cas diag b = a
3.1.4.3.2 Cas psdiag b = a + 1
3.1.4.3.3 Cas ts b > a + 1
3.2 Bornes de Cramér-Rao/Weiss-Weinstein pour l’estimation de et k
3.2.1 Lien entre les bornes deWeiss-Weinstein et de Cramér-Rao/Weiss-Weinstein hybride et bayésienne
3.2.1.1 Retour sur le modèle et notations
3.2.1.2 Lien entre les matrices G(H; s), V ?
22 , C?
22 , V
22 et C
22 . . 56
3.2.1.3 Lien entre les matrices V ?
3.2.1.4 Lien entre les matrices V ?
3.2.2 Borne de Cramér-Rao/Weiss-Weinstein hybride
3.2.2.1 Expression de la matrice V ?
3.2.2.2 Expression des matrices V ?
3.2.2.3 Expression de la matrice V ?
3.2.3 Borne de Cramér-Rao/Weiss-Weinstein bayésienne
3.2.3.1 Expression de la matrice V
3.2.3.2 Expression des matrices V
3.2.3.3 Expression de la matrice V
3.3 Maximisation sur un ensemble de matrices définies positives
4 Applications en traitement du signal 
4.1 Cas où les paramètres de la distribution du signal observé sur chaque segment sont connus
4.1.1 Cas d’un signal comportant un seul point de rupture
4.1.1.1 Signaux gaussiens
4.1.1.1.1 Expression de q?1;q(s)
4.1.1.1.2 Résultats numériques
4.1.1.2 Signaux poissonniens
4.1.1.2.1 Expression de q?1;q(s)
4.1.1.2.2 Résultats numériques
4.1.1.3 Signaux suivant une loi exponentielle
4.1.1.3.1 Expression de q?1;q(s)
4.1.1.3.2 Résultats numériques
4.1.2 Cas de signaux comportant de multiples points de rupture
4.1.2.1 Signaux gaussiens
4.1.2.1.1 Expressions de rq(s; s0) et Rq(s; s0)
4.1.2.1.2 Influence de la distribution a priori sur k
4.1.2.1.3 Résultats numériques
4.1.2.2 Signaux poissonniens
4.1.2.2.1 Expression de rq(s; s0) et Rq(s; s0)
4.1.2.2.2 Résultats numériques
4.2 Cas où les paramètres de la distribution du signal observé sur chaque segment sont inconnus
4.2.1 Application à des signaux poissonniens
4.2.1.1 Cas de paramètres q déterministes
4.2.1.1.1 Expressions de ~ F(q) et de ‘q;~q (s)
4.2.1.1.2 Résultats numériques
4.2.1.2 Cas de paramètres q aléatoires
4.2.1.2.1 Expressions des éléments de la borne de Cramér-Rao/Weiss- Weinstein bayésienne
4.2.1.2.2 Résultats numériques
4.2.2 Application à des signaux gaussiens
4.2.2.1 Cas de signaux constants sur chaque segment
4.2.2.1.1 Expressions de F~(q), de ‘q;mq~(s) et de ‘q;2
4.2.2.1.2 Résultats numériques
4.2.2.2 Cas d’un signal sinusoïdal complexe comportant une rupture de fréquence
4.2.2.2.1 Modèle et hypothèses
4.2.2.2.2 Expression de la borne de Weiss-Weinstein
4.2.2.2.3 Résultats numériques
5 Conclusion et perspectives 
A Expression de la matrice G(H; s) 101
A.1 Expressions de (; ; ha; hb; k)
A.2 Expressions de M(; ; ha; hb; k)
A.2.1 Cas diag : b = a
A.2.2 Cas ts : b > a + 1
A.2.3 Cas psdiag : b = a + 1
A.3 Expressions de e~(;;ha;hb) et de [G]a;b
A.3.1 Cas diag et termes diagonaux de G
A.3.2 Cas ts et termes du triangle supérieur de G
A.3.3 Cas psdiag et termes des premières surdiagonale et sous-diagonale de G
A.3.3.1 Expressions de e~(;;ha;ha+1)
A.3.3.1.1 Expression de e~(;;ha;ha+1) dans le cas sans chevauchements
A.3.3.1.2 Expression de e~(;;ha;ha+1) dans le cas avec chevauchements
A.3.3.2 Expression des termes des premières surdiagonale et sous-diagonale de G
B Expressions des éléments des matrices V ?
B.1 Expressions des éléments de la matrice V ?
B.2 Expressions des éléments de la matrice V ?
B.2.1 Cas tsi : ~q 6= q ? 1 and ~q 6= q
B.2.2 Cas d1 : ~q = q ? 1
B.2.3 Cas d2 : ~q = q
Notations
Liste des figures
Liste des tableaux
Bibliographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *