Tรฉlรฉcharger le fichier pdf d’un mรฉmoire de fin d’รฉtudes
Sources I.I.D. et distribution jointe bien connue
Dans cette partie, la source X et lโinformation adjacente Y gยดen`erent conjoin-tement des suites de symboles {(Xn, Yn)}+n=1โ, i.i.d., a` valeurs dans des alphabets quelconques X et Y, respectivement. La distribution de probabilitยดe jointe P (X, Y ) est supposยดee parfaitement connue. Nous ยดetudions tout dโabord les performances de codage de sources (Partie 2.1.1), puis dยดecrivons les schยดemas de pratiques qui ont etยด proposยดes dans cette situation (Partie 2.1.2).
Performances de codage
Nous nous interrogeons ici sur la performance du schยดema de codage avec infor-mation adjacente au dยดecodeur seulement. Intuitivement, on pourrait se dire que ce schยดema est beaucoup moins e๏ฌcace en terme de compression que celui disposant de lโinformation adjacente ยดegalement au codeur (voir Figure 2.1). Dans cette partie, nous comparons donc les performances de ces deux schยดemas de codage dans deux cas : le codage sans pertes et le codage avec pertes.
Codage de sources sans pertes
Dans cette partie, nous supposerons que les alphabets X et Y sont dยดenombrables. En codage de sources sans pertes, on veut reconstruire sans erreurs au dยดecodeur la suite de symboles {Xn}+n=1โ. Dans ce cas, on appelle codage conditionnel [Gucsel72] le schยดema dans lequel Y est connu a` la fois au codeur et au dยดecodeur, et codage de Slepian Wolf (SW) [SW73] celui o`u Y nโest disponible quโau dยดecodeur. En rยดealitยด le codage de SW tel que dยดefini dans [SW73] correspond au cas plus gยดenยดeral de la compression distribuยดee de deux sources X et Y . Ici, par simplicitยดe, lโappellation co-dage de SW dยดesignera cependant le cas asymยดetrique, o`u seul X est compressยด et o`u Y est directemment disponible au dยดecodeur. On appelle RXc|Y (codage conditionnel) et RXSW|Y les dยดebits minimums auxquels il est possible de coder X pour assurer une reconstruction sans pertes de la source. Dโapr`es [Gucsel72] et [SW73], ces dยดebits sont donnรฉs par RXc|Yย = RXSW|Yย = H(X|Y ) (2.1) o`u H(X|Y ) est lโentropie conditionnelle de X sachant Y . Il nโy a donc pas de perte de performance dans le cas o`u lโinformation adjacente est disponible uniquement au dยดecodeur. Ce rยดesultat ยดetonnant a justifiยดe lโintยดerหet pour le codage de sources avec information adjacente au dยดecodeur et plus gยดenยดeralement pour le codage de sources.
En codage de sources avec pertes, on tol`ere un certain ยดecart entre la source et sa reconstruction. Lโยดecart moyen maximum est spยดecifiยด par une contrainte fixยดee de qualitยดe de reconstruction appelยดee contrainte de distortion. Dans ce cas, on appelle codage de Wyner-Ziv (WZ) [WZ76] le schยดema o`u Y est connu au dยดecodeur seulement, et codage conditionnel avec pertes le cas o`u Y est connu au codeur et au dยดecodeur.
Soit d(., .) une mesure de distortion et D la contrainte de distortion telle que E[d(X, Xห)] โค D. Dโapr`es [WZ76], pour du codage de WZ, le dยดebit minimum atteignable pour une contrainte de distortion D est RXWZ|Y (D) = inf I(X; U|Y ) (2.2) o`u le inf est sur lโensemble des distributions de probabilitยดe fU|X pour lesquelles U โ X โ Y forment une chaหฤฑne de Markov et telles quโil existe une fonction de reconstruction F : U ร Y โ X telle que E [d(X, F (U, Y ))] โค D. En codage condi-tionnel avec pertes, on a dโapr`es [Gucsel72], RXc|Y (D) = inf I(X; U|Y ) (2.3) o`u le inf est sur les distributions de probabilitยดe fU |X,Yย telles que E [d(X, U)] โค D.WZ c ยด
Les fonctions RX|Y (D) et RX|Y (D) sont appelยดees fonctions dยดebit-distortion. Etant donnยดe que lโensemble de minimisation pour le cas WZ est plus restreint que pour le cas conditionnel, [Zam96] montre que RXc|Y (D) โค RXWZ|Y (D), avec egalitยดe seulement dans certains cas tels que le cas Gaussien. [Zam96] propose ยดegalement une comparaison prยดecise des performances. Il sโagit ensuite de dยดeterminer lโexpression explicite de ces fonctions dยดebit-distortion, pour des mod`eles donnยดes de sources. Cela peut หetre un probl`eme di๏ฌcile, puisquโil sโagit de faire une recherche sur les fonctions contenues dans les ensembles de minimisation de (2.2) et (2.3). Le cas Gaussien a etยด traitยดe dans [Wyn78], et [BKW10] propose une analyse pour des mยดelanges de Gaussiennes.
De multiples variations du probl`eme de codage de WZ ont etยด proposยดees et etudiยดees. Ainsi, [Gas04, GDV06, Ooh99] prยดesentent le cas plus gยดenยดeral de plusieurs sources a` compresser et [VP10] traite le probl`eme de la sยดecuritยดe dans un probl`eme de codage avec information adjacente. Dans [FE06], deux informations adjacentes sont disponibles : lโune des deux est prยดesente a` la fois au codeur et au dยดecodeur, lโautre nโest observยดee quโau dยดecodeur. Dans [MWZ08] le codeur reยธcoit de lโinformation sur la distortion entre la source et lโinformation adjacente prยดesente au dยดecodeur. De plus, la question des dยดelais de dยดecodage a ยดegalement etยด abordยดee. En ce sens, [Ten04] sโintยดeresse `a la construction de codeurs WZ temps rยดeel, et [SP13, WG06] supposent que lโinformation adjacente arrive avec du retard au dยดecodeur. Enfin, [Pra04, VP07] abordent ce probl`eme des dยดelais dโun point de vue lยดeg`erement di๏ฌยดerent. Dans ces travaux, lors du dยดecodage dโun symbole Xn, le dยดecodeur a acc`es `a tous les symboles prยดecยดedents X1 . . . Xnโ1.
Schยดemas de codage
Nous dยดecrivons ici quelques solutions existantes pour le codage sans pertes puis pour le codage avec pertes.
Solutions pratiques pour le codage sans pertes
La plupart des schยดemas de codage sans pertes [GD05, XLC04] sโappuient sur des codes de canal tels que les turbo-codes [CPR03, SLXG04], et les codes LDPC (Low Density Parity Check codes) [EY05a, LXG02, MUM10a, WLZ08]. Le choix des codes LDPC prยดesente plusieurs intยดerหets. Tout dโabord, [MUM10a] montre que les codes LDPC permettent dโatteindre lโentropie conditionnelle (2.1), a` condition tou-tefois de construire le code avec prยดecaution [CHJ09b]. Ensuite, de nombreux ou-tils ont etยด dยดeveloppยดes pour les codes LDPC en codage de canal : algorithmes de dยดecodage [CBMW10, CF02b, DM98, DF05, DF07, GCGD07, LGTD11, Sav08a, Wei08], analyse de performances [AK04,BB06,CRU01,FFR06,LFK09,Ric03,PRW06,WKP05, RSU01, RU01] et construction de codes [PFD08] notamment. En codage de SW, il est donc possible dโutiliser ces outils, soit directement, soit apr`es un travail dโadapta-tion. Ces arguments sโappliqueraient ยดegalement pour des turbo-codes, mais, commeย indiquยดe dans [XLC04], les mยดethodes de construction de codes performants sont plus simples et plus flexibles pour les codes LDPC que pour des turbo-codes.
Une majoritยดe des schยดemas proposยดes prยดecยดedemment [CF02a,CPR03,SLXG04,EY05a, LXG02,MUM10a] sโappuie sur des codes LDPC binaires. Or, dans un probl`eme de co-dage de sources, les symboles a` coder sont souvent non-binaires, comme par exemple les pixels dโune image ou les coe๏ฌcients de leur transformยดee en cosinus discr`ete (DCT) ou en ondelette. Dans ce cas, une solution frยดequemment employยดee est de transformer les symboles en plans de bits qui seront codยดes indยดependamment `a lโaide de codes LDPC binaires [EY05a, LXG02, VL12]. Il existe cependant une dยดependance statis-tique entre les plans de bits, qui doit หetre prise en compte lors du dยดecodage si lโon veut ยดeviter une perte de performance [LW08,TZRG10a,VMFG07,VCFG08]. Mais les mยดethodes proposยดees pour tenir compte de cette dยดependance induisent une complexitยด supplยดementaire de dยดecodage et, surtout, prennent di๏ฌcilement en compte lโensemble des dยดependances. Cโest pourquoi nous nous intยดeresserons ici `a des codes LDPC tra-vaillant directement avec des symboles non-binaires, cโest-a`-dire dans GF(q), le corps de Galois de dimension q [MS77].
Concr`etement, le codeur rยดealise le codage du vecteur de source xn a` lโaide dโune matrice creuse H de taille n ร m (m < n) et dont les coe๏ฌcients non nuls sont dans GF(q). Les proportions de coe๏ฌcients non nuls par ligne et par colonne de H sont dยดeterminยดees par les distributions de degrยดes ฮป(x) et ฯ(x) [RSU01]. Le dยดecodeur dis-pose du mot de code um = HT xn et dโun vecteur dโinformation adjacente yn, a` partir desquels il doit reconstruire le vecteur de source xn. En codage de canal, plusieurs algorithmes de dยดecodage LDPC ont etยด introduits. Un aperยธcu de ces algorithmes est disponible dans [RU01]. On peut citer le dยดecodage de type hard [LGTD11], le dยดecodage avec des niveaux quantifiยดes [PDDV12], les algorithmes de type minimum-somme [DF05, Sav08a, Sav08c, CLXZS13] et les algorithmes de type somme-produit [DM98, GCGD07, Mac99]. Ces derniers, qui sont les plus performants, rยดealisent une estimation approchยดee au sens du maximum a posteriori et sont systยดematiquement uti-lisยดes en codage de SW. La performance de tous ces algorithmes dยดepend beaucoup des distributions des degrยดes ฮป(x) et ฯ(x) du code. Cโest pourquoi des mยดethodes appelยดees ยดevolution de densitยด [BB06, LFK09, WKP05, RSU01, RU01, SRA08, RU05, Sav08b] ont etยด introduites pour ยดevaluer la performance asymptotique dโun code en fonc-tion de ses distributions de degrยดes. Ensuite, une fois quโune bonne distribution de degrยดes est obtenue, il sโagit de construire soigneusement la matrice H a` longueur finie [PFD08, VCNP09].
Dรฉcodeur LDPC somme-produit
Les schยดemas de codage qui ont etยด proposยดes dans la th`ese ont tous pour base des codes LDPC non binaires avec un dยดecodage de type somme-produit. Cโest pourquoi dans cette partie nous dยดecrivons cet algorithme de dยดecodage somme-produit.
A partir du vecteur de sources xn, on obtient donc le mot de code um = HT xn. On souhaite rยดealiser une estimation approchยดee de xn a` partir de um et yn au sens du maximum a posteriori a` lโaide dโun algorithme somme-produit [KFL01] que nous dยดecrivons ici. Pour le cas non binaire et en codage de canal, cet algorithme est prยดesentยด dans [LFK09]. Nous en avons repris les notations. Nous exprimons simplement ici la version SW de cet algorithme. On peut reprยดesenter par un graphe G les dยดependances entre les di๏ฌยดerentes variables alยดeatoires du probl`eme (voir un exemple sur la Figure 2.2). Dans ce graphe, on appelle nลuds variables (NV) les sommets reprยดesentant les variables X1 . . . Xn et nลuds de paritยดe (NP) les sommets reprยดesentant les compo-santes U1 . . . Um du mot de code. Une arหete relie un NV i a` un NP j si et seulement si Hi,j = 0. On note NP(i) lโensemble des NP connectยดes `a un NV i et NV(j) lโen-semble des NV connectยดes `a un NP j. La distribution de degrยดes des NV est donnยดee par ฮป(x) = i>1 ฮปixiโ1, o`u ฮปi reprยดesente la proportion dโarหetes de degrยด i, cโest-a`-dire provenant de NV reliยดes `a i NP. De mหeme, la distribution de degrยดes des NP est donnยดee par ฯ(x) = j>1 ฮปj xjโ1. Le dยดebit dโun code de distributions de degrยดes (ฮป(x), ฯ(x))
Le rapport de stage ou le pfe est un document dโanalyse, de synthรจse et dโรฉvaluation de votre apprentissage, cโest pour cela rapport-gratuit.com propose le tรฉlรฉchargement des modรจles complet de projet de fin dโรฉtude, rapport de stage, mรฉmoire, pfe, thรจse, pour connaรฎtre la mรฉthodologie ร avoir et savoir comment construire les parties dโun projet de fin dโรฉtude.
|
Table des matiรจres
1 Introductionย
2 ยดEtat de lโartย
2.1 Sources i.i.d. et distribution jointe bien connue
2.1.1 Performances de codage
2.1.2 Schรจmas de codage
2.2 Distribution de probabilitรฉ mal connue
2.2.1 Modรฉlisation des sources
2.2.2 Problรจmes de codage
3 Contributionsย
3.1 Modรจles de sources
3.1.1 Paramรจtres fixรฉs
3.1.2 Paramรจtres variables sans mรฉmoire
3.1.3 Paramรจtres variables avec mรฉmoire
3.2 Analyse de performance
3.2.1 Codage conditionnel et codage de SW
3.2.2 Paramรจtres estimรฉs
3.2.3 Lโanalyse outage
3.2.4 Application au cas dโun rยดeseau `a trois noeuds
3.3 Schยดemas de codage de SW
3.3.1 Schยดema de codage pour le mod`ele SwP
3.3.2 Rยดesultats de simulations
3.4 Design de codes LDPC non-binaires
3.4.1 Dยดecodage LDPC
3.4.2 ยดEvolution de densitยดe
3.4.3 Exemples
3.5 Codage de WZ avec mod`ele de Markov cachยดe
3.5.1 Analyse de performance
3.5.2 Schยดema de codage
3.5.3 Rยดesultats de simulation
4 Conclusion et perspectivesย
4.1 Schยดemas de codage
4.1.1 Dยดecodage de type minimum-somme pour le codage de SW
4.1.2 ยดEvolution de densitยดe pour le cas incertain
4.2 Incertitude sur les mod`eles
4.2.1 Sยดelection de mod`eles pour des applications particuli`eres
4.2.2 Mod`eles plus complexes
4.2.3 Incertitude sur les mod`eles de sources pour des probl`emes particuliers de codage
4.3 Gยดenยดeralisation `a un rยดeseau de capteurs
4.3.1 Analyse de performance
4.3.2 Autres stratยดegies de codage
4.3.3 Construction de codes
4.3.4 Rยดeseaux plus grands
4.3.5 Une seule source mais plusieurs capteurs
Bibliographie
Annexes
A Analyse de performances
B Schยดemas de codage de SW
C Design de codes LDPC non-binaires
D Codage de WZ pour un canal de corrยดelation distribuยดe suivant un mod`ele de Markov cachยดe
Tรฉlรฉcharger le rapport complet