Codage conditionnel et codage de SW

Tรฉlรฉcharger le fichier pdf d’un mรฉmoire de fin d’รฉtudes

Sources I.I.D. et distribution jointe bien connue

Dans cette partie, la source X et lโ€™information adjacente Y gยดen`erent conjoin-tement des suites de symboles {(Xn, Yn)}+n=1โˆž, i.i.d., a` valeurs dans des alphabets quelconques X et Y, respectivement. La distribution de probabilitยดe jointe P (X, Y ) est supposยดee parfaitement connue. Nous ยดetudions tout dโ€™abord les performances de codage de sources (Partie 2.1.1), puis dยดecrivons les schยดemas de pratiques qui ont etยด proposยดes dans cette situation (Partie 2.1.2).
Performances de codage
Nous nous interrogeons ici sur la performance du schยดema de codage avec infor-mation adjacente au dยดecodeur seulement. Intuitivement, on pourrait se dire que ce schยดema est beaucoup moins e๏ฌƒcace en terme de compression que celui disposant de lโ€™information adjacente ยดegalement au codeur (voir Figure 2.1). Dans cette partie, nous comparons donc les performances de ces deux schยดemas de codage dans deux cas : le codage sans pertes et le codage avec pertes.
Codage de sources sans pertes
Dans cette partie, nous supposerons que les alphabets X et Y sont dยดenombrables. En codage de sources sans pertes, on veut reconstruire sans erreurs au dยดecodeur la suite de symboles {Xn}+n=1โˆž. Dans ce cas, on appelle codage conditionnel [Gucsel72] le schยดema dans lequel Y est connu a` la fois au codeur et au dยดecodeur, et codage de Slepian Wolf (SW) [SW73] celui o`u Y nโ€™est disponible quโ€™au dยดecodeur. En rยดealitยด le codage de SW tel que dยดefini dans [SW73] correspond au cas plus gยดenยดeral de la compression distribuยดee de deux sources X et Y . Ici, par simplicitยดe, lโ€™appellation co-dage de SW dยดesignera cependant le cas asymยดetrique, o`u seul X est compressยด et o`u Y est directemment disponible au dยดecodeur. On appelle RXc|Y (codage conditionnel) et RXSW|Y les dยดebits minimums auxquels il est possible de coder X pour assurer une reconstruction sans pertes de la source. Dโ€™apr`es [Gucsel72] et [SW73], ces dยดebits sont donnรฉs par RXc|Yย  = RXSW|Yย  = H(X|Y ) (2.1) o`u H(X|Y ) est lโ€™entropie conditionnelle de X sachant Y . Il nโ€™y a donc pas de perte de performance dans le cas o`u lโ€™information adjacente est disponible uniquement au dยดecodeur. Ce rยดesultat ยดetonnant a justifiยดe lโ€™intยดerห†et pour le codage de sources avec information adjacente au dยดecodeur et plus gยดenยดeralement pour le codage de sources.
En codage de sources avec pertes, on tol`ere un certain ยดecart entre la source et sa reconstruction. Lโ€™ยดecart moyen maximum est spยดecifiยด par une contrainte fixยดee de qualitยดe de reconstruction appelยดee contrainte de distortion. Dans ce cas, on appelle codage de Wyner-Ziv (WZ) [WZ76] le schยดema o`u Y est connu au dยดecodeur seulement, et codage conditionnel avec pertes le cas o`u Y est connu au codeur et au dยดecodeur.
Soit d(., .) une mesure de distortion et D la contrainte de distortion telle que E[d(X, Xห†)] โ‰ค D. Dโ€™apr`es [WZ76], pour du codage de WZ, le dยดebit minimum atteignable pour une contrainte de distortion D est RXWZ|Y (D) = inf I(X; U|Y ) (2.2) o`u le inf est sur lโ€™ensemble des distributions de probabilitยดe fU|X pour lesquelles U โ†” X โ†” Y forment une chaห†ฤฑne de Markov et telles quโ€™il existe une fonction de reconstruction F : U ร— Y โ†’ X telle que E [d(X, F (U, Y ))] โ‰ค D. En codage condi-tionnel avec pertes, on a dโ€™apr`es [Gucsel72], RXc|Y (D) = inf I(X; U|Y ) (2.3) o`u le inf est sur les distributions de probabilitยดe fU |X,Yย  telles que E [d(X, U)] โ‰ค D.WZ c ยด
Les fonctions RX|Y (D) et RX|Y (D) sont appelยดees fonctions dยดebit-distortion. Etant donnยดe que lโ€™ensemble de minimisation pour le cas WZ est plus restreint que pour le cas conditionnel, [Zam96] montre que RXc|Y (D) โ‰ค RXWZ|Y (D), avec egalitยดe seulement dans certains cas tels que le cas Gaussien. [Zam96] propose ยดegalement une comparaison prยดecise des performances. Il sโ€™agit ensuite de dยดeterminer lโ€™expression explicite de ces fonctions dยดebit-distortion, pour des mod`eles donnยดes de sources. Cela peut ห†etre un probl`eme di๏ฌƒcile, puisquโ€™il sโ€™agit de faire une recherche sur les fonctions contenues dans les ensembles de minimisation de (2.2) et (2.3). Le cas Gaussien a etยด traitยดe dans [Wyn78], et [BKW10] propose une analyse pour des mยดelanges de Gaussiennes.
De multiples variations du probl`eme de codage de WZ ont etยด proposยดees et etudiยดees. Ainsi, [Gas04, GDV06, Ooh99] prยดesentent le cas plus gยดenยดeral de plusieurs sources a` compresser et [VP10] traite le probl`eme de la sยดecuritยดe dans un probl`eme de codage avec information adjacente. Dans [FE06], deux informations adjacentes sont disponibles : lโ€™une des deux est prยดesente a` la fois au codeur et au dยดecodeur, lโ€™autre nโ€™est observยดee quโ€™au dยดecodeur. Dans [MWZ08] le codeur reยธcoit de lโ€™information sur la distortion entre la source et lโ€™information adjacente prยดesente au dยดecodeur. De plus, la question des dยดelais de dยดecodage a ยดegalement etยด abordยดee. En ce sens, [Ten04] sโ€™intยดeresse `a la construction de codeurs WZ temps rยดeel, et [SP13, WG06] supposent que lโ€™information adjacente arrive avec du retard au dยดecodeur. Enfin, [Pra04, VP07] abordent ce probl`eme des dยดelais dโ€™un point de vue lยดeg`erement di๏ฌ€ยดerent. Dans ces travaux, lors du dยดecodage dโ€™un symbole Xn, le dยดecodeur a acc`es `a tous les symboles prยดecยดedents X1 . . . Xnโˆ’1.

Schยดemas de codage

Nous dยดecrivons ici quelques solutions existantes pour le codage sans pertes puis pour le codage avec pertes.
Solutions pratiques pour le codage sans pertes
La plupart des schยดemas de codage sans pertes [GD05, XLC04] sโ€™appuient sur des codes de canal tels que les turbo-codes [CPR03, SLXG04], et les codes LDPC (Low Density Parity Check codes) [EY05a, LXG02, MUM10a, WLZ08]. Le choix des codes LDPC prยดesente plusieurs intยดerห†ets. Tout dโ€™abord, [MUM10a] montre que les codes LDPC permettent dโ€™atteindre lโ€™entropie conditionnelle (2.1), a` condition tou-tefois de construire le code avec prยดecaution [CHJ09b]. Ensuite, de nombreux ou-tils ont etยด dยดeveloppยดes pour les codes LDPC en codage de canal : algorithmes de dยดecodage [CBMW10, CF02b, DM98, DF05, DF07, GCGD07, LGTD11, Sav08a, Wei08], analyse de performances [AK04,BB06,CRU01,FFR06,LFK09,Ric03,PRW06,WKP05, RSU01, RU01] et construction de codes [PFD08] notamment. En codage de SW, il est donc possible dโ€™utiliser ces outils, soit directement, soit apr`es un travail dโ€™adapta-tion. Ces arguments sโ€™appliqueraient ยดegalement pour des turbo-codes, mais, commeย  indiquยดe dans [XLC04], les mยดethodes de construction de codes performants sont plus simples et plus flexibles pour les codes LDPC que pour des turbo-codes.
Une majoritยดe des schยดemas proposยดes prยดecยดedemment [CF02a,CPR03,SLXG04,EY05a, LXG02,MUM10a] sโ€™appuie sur des codes LDPC binaires. Or, dans un probl`eme de co-dage de sources, les symboles a` coder sont souvent non-binaires, comme par exemple les pixels dโ€™une image ou les coe๏ฌƒcients de leur transformยดee en cosinus discr`ete (DCT) ou en ondelette. Dans ce cas, une solution frยดequemment employยดee est de transformer les symboles en plans de bits qui seront codยดes indยดependamment `a lโ€™aide de codes LDPC binaires [EY05a, LXG02, VL12]. Il existe cependant une dยดependance statis-tique entre les plans de bits, qui doit ห†etre prise en compte lors du dยดecodage si lโ€™on veut ยดeviter une perte de performance [LW08,TZRG10a,VMFG07,VCFG08]. Mais les mยดethodes proposยดees pour tenir compte de cette dยดependance induisent une complexitยด supplยดementaire de dยดecodage et, surtout, prennent di๏ฌƒcilement en compte lโ€™ensemble des dยดependances. Cโ€™est pourquoi nous nous intยดeresserons ici `a des codes LDPC tra-vaillant directement avec des symboles non-binaires, cโ€™est-a`-dire dans GF(q), le corps de Galois de dimension q [MS77].
Concr`etement, le codeur rยดealise le codage du vecteur de source xn a` lโ€™aide dโ€™une matrice creuse H de taille n ร— m (m < n) et dont les coe๏ฌƒcients non nuls sont dans GF(q). Les proportions de coe๏ฌƒcients non nuls par ligne et par colonne de H sont dยดeterminยดees par les distributions de degrยดes ฮป(x) et ฯ(x) [RSU01]. Le dยดecodeur dis-pose du mot de code um = HT xn et dโ€™un vecteur dโ€™information adjacente yn, a` partir desquels il doit reconstruire le vecteur de source xn. En codage de canal, plusieurs algorithmes de dยดecodage LDPC ont etยด introduits. Un aperยธcu de ces algorithmes est disponible dans [RU01]. On peut citer le dยดecodage de type hard [LGTD11], le dยดecodage avec des niveaux quantifiยดes [PDDV12], les algorithmes de type minimum-somme [DF05, Sav08a, Sav08c, CLXZS13] et les algorithmes de type somme-produit [DM98, GCGD07, Mac99]. Ces derniers, qui sont les plus performants, rยดealisent une estimation approchยดee au sens du maximum a posteriori et sont systยดematiquement uti-lisยดes en codage de SW. La performance de tous ces algorithmes dยดepend beaucoup des distributions des degrยดes ฮป(x) et ฯ(x) du code. Cโ€™est pourquoi des mยดethodes appelยดees ยดevolution de densitยด [BB06, LFK09, WKP05, RSU01, RU01, SRA08, RU05, Sav08b] ont etยด introduites pour ยดevaluer la performance asymptotique dโ€™un code en fonc-tion de ses distributions de degrยดes. Ensuite, une fois quโ€™une bonne distribution de degrยดes est obtenue, il sโ€™agit de construire soigneusement la matrice H a` longueur finie [PFD08, VCNP09].

Dรฉcodeur LDPC somme-produit

Les schยดemas de codage qui ont etยด proposยดes dans la th`ese ont tous pour base des codes LDPC non binaires avec un dยดecodage de type somme-produit. Cโ€™est pourquoi dans cette partie nous dยดecrivons cet algorithme de dยดecodage somme-produit.
A partir du vecteur de sources xn, on obtient donc le mot de code um = HT xn. On souhaite rยดealiser une estimation approchยดee de xn a` partir de um et yn au sens du maximum a posteriori a` lโ€™aide dโ€™un algorithme somme-produit [KFL01] que nous dยดecrivons ici. Pour le cas non binaire et en codage de canal, cet algorithme est prยดesentยด dans [LFK09]. Nous en avons repris les notations. Nous exprimons simplement ici la version SW de cet algorithme. On peut reprยดesenter par un graphe G les dยดependances entre les di๏ฌ€ยดerentes variables alยดeatoires du probl`eme (voir un exemple sur la Figure 2.2). Dans ce graphe, on appelle nล“uds variables (NV) les sommets reprยดesentant les variables X1 . . . Xn et nล“uds de paritยดe (NP) les sommets reprยดesentant les compo-santes U1 . . . Um du mot de code. Une arห†ete relie un NV i a` un NP j si et seulement si Hi,j = 0. On note NP(i) lโ€™ensemble des NP connectยดes `a un NV i et NV(j) lโ€™en-semble des NV connectยดes `a un NP j. La distribution de degrยดes des NV est donnยดee par ฮป(x) = i>1 ฮปixiโˆ’1, o`u ฮปi reprยดesente la proportion dโ€™arห†etes de degrยด i, cโ€™est-a`-dire provenant de NV reliยดes `a i NP. De mห†eme, la distribution de degrยดes des NP est donnยดee par ฯ(x) = j>1 ฮปj xjโˆ’1. Le dยดebit dโ€™un code de distributions de degrยดes (ฮป(x), ฯ(x))

Le rapport de stage ou le pfe est un document dโ€™analyse, de synthรจse et dโ€™รฉvaluation de votre apprentissage, cโ€™est pour cela rapport-gratuit.com propose le tรฉlรฉchargement des modรจles complet de projet de fin dโ€™รฉtude, rapport de stage, mรฉmoire, pfe, thรจse, pour connaรฎtre la mรฉthodologie ร  avoir et savoir comment construire les parties dโ€™un projet de fin dโ€™รฉtude.

Table des matiรจres

1 Introductionย 
2 ยดEtat de lโ€™artย 
2.1 Sources i.i.d. et distribution jointe bien connue
2.1.1 Performances de codage
2.1.2 Schรจmas de codage
2.2 Distribution de probabilitรฉ mal connue
2.2.1 Modรฉlisation des sources
2.2.2 Problรจmes de codage
3 Contributionsย 
3.1 Modรจles de sources
3.1.1 Paramรจtres fixรฉs
3.1.2 Paramรจtres variables sans mรฉmoire
3.1.3 Paramรจtres variables avec mรฉmoire
3.2 Analyse de performance
3.2.1 Codage conditionnel et codage de SW
3.2.2 Paramรจtres estimรฉs
3.2.3 Lโ€™analyse outage
3.2.4 Application au cas dโ€™un rยดeseau `a trois noeuds
3.3 Schยดemas de codage de SW
3.3.1 Schยดema de codage pour le mod`ele SwP
3.3.2 Rยดesultats de simulations
3.4 Design de codes LDPC non-binaires
3.4.1 Dยดecodage LDPC
3.4.2 ยดEvolution de densitยดe
3.4.3 Exemples
3.5 Codage de WZ avec mod`ele de Markov cachยดe
3.5.1 Analyse de performance
3.5.2 Schยดema de codage
3.5.3 Rยดesultats de simulation
4 Conclusion et perspectivesย 
4.1 Schยดemas de codage
4.1.1 Dยดecodage de type minimum-somme pour le codage de SW
4.1.2 ยดEvolution de densitยดe pour le cas incertain
4.2 Incertitude sur les mod`eles
4.2.1 Sยดelection de mod`eles pour des applications particuli`eres
4.2.2 Mod`eles plus complexes
4.2.3 Incertitude sur les mod`eles de sources pour des probl`emes particuliers de codage
4.3 Gยดenยดeralisation `a un rยดeseau de capteurs
4.3.1 Analyse de performance
4.3.2 Autres stratยดegies de codage
4.3.3 Construction de codes
4.3.4 Rยดeseaux plus grands
4.3.5 Une seule source mais plusieurs capteurs
Bibliographie
Annexes
A Analyse de performances
B Schยดemas de codage de SW
C Design de codes LDPC non-binaires
D Codage de WZ pour un canal de corrยดelation distribuยดe suivant un mod`ele de Markov cachยดe

Tรฉlรฉcharger le rapport complet

Tรฉlรฉcharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiรฉe. Les champs obligatoires sont indiquรฉs avec *