Depuis le lancement des premiers réseaux de télécommunications mobiles numériques dans les années 90, la quantité de données transmises sur ces réseaux n’a cessé d’augmenter d’année en année. D’abord alimentée par les SMS (Small Message Service) puis par les premières applications internet mobiles telles que le WAP (Wireless Application Protocol), cette croissance est aujourd’hui principalement due à la popularité croissante de terminaux mobiles de plus en plus sophistiqués tels que les smartphones ou encore les tablettes numériques. Ces terminaux permettent d’accéder à divers services qui peuvent être très gourmands en bande passante. On pense notamment aux services vidéos qui devraient représenter deux tiers du trafic de données mobiles d’ici 2017 [1].
La croissance permanente du trafic de données mobiles a été accompagnée d’améliorations successives des standards de télécommunications mobiles. De quelques kilobits par seconde avec le standard GSM (Global System for Mobile Communications) dans les années 90, les débits offerts par ces réseaux sont aujourd’hui passés à quelques dizaines de mégabits par seconde avec le standard LTE (Long Term Evolution). Cependant, même si les performances des standards de télécommunications mobiles continuent d’augmenter (le standard LTE Advanced, successeur du standard LTE devrait atteindre des débits de l’ordre du gigabit par seconde), on peut craindre que ce progrès ne soit pas suffisamment rapide face à l’évolution du besoin en bande passante des utilisateurs. Dans le monde de la télédiffusion et plus particulièrement de la télévision, la situation est radicalement différente. L’évolution la plus marquante de ces dernières années dans ce domaine est le passage aux technologies du tout numérique. Si pour la radio, les transmissions numériques cohabitent encore avec des transmissions analogiques, pour la télévision une transition totale de l’analogique au numérique est programmée voire terminée dans de nombreux pays. En plus d’offrir une meilleure qualité de service (plus de chaînes, meilleures qualités audio et vidéo…) que la télévision analogique, la télévision numérique permet de libérer du spectre. En effet, à définition équivalente, il est possible de diffuser six chaines de télévision numérique en utilisant la bande de fréquences nécessaire à une chaine de télévision analogique. De plus, la possibilité d’utiliser des réseaux mono-fréquence ou SFN (Single Frequency Network) permet de couvrir des territoires plus grands pour chaque bande de fréquences et permet de limiter la nécessité de laisser des bandes libres pour éviter les interférences. Le spectre libéré par le passage de la télévision de l’analogique au numérique est souvent désigné sous le nom de dividende numérique.
Le standard DVB-T2
Historique
Le standard DVB-T2 est l’un des standards de télévision numérique terrestre les plus récents. C’est le fruit d’une longue évolution technologique qui a débuté au début du XXème siècle. S’il hérite de certaines caractéristiques des standards précédents, il introduit aussi de nouvelles techniques comme le codage LDPC (Low Density Parity Check), les constellations tournées ou encore la transmission multi-antennes.
Généralités
La télévision consiste à transmettre une vidéo entre deux points distants. Une vidéo est une succession d’images affichées à cadence fixe. Cette cadence est exprimée en images par seconde. Chaque image est composée d’une matrice de pixels (de l’anglais picture element). Les dimensions de cette matrice constituent la définition de l’image. Une valeur est associée à chaque pixel. Cette valeur peut être scalaire dans le cas de la télévision noir et blanc ou un vecteur à trois composantes dans le cas de la télévision couleur. Les composantes de ce vecteur sont différentes en fonction de la représentation de l’espace colorimétrique utilisée. Les représentations les plus utilisées sont Rouge/Vert/Bleu (RVB ou RGB) et Luminance/Chrominance (YUV ou YDbDr par exemple). Les composantes de l’espace RVB sont les trois couleurs primaires de la synthèse additive. C’est l’espace natif des capteurs vidéo (pellicules et capteurs électroniques). L’espace YDbDr comprend la luminance et deux composantes de chrominance. La luminance représente l’intensité de la lumière telle qu’elle est perçue par l’œil. C’est une combinaison linéaire des composantes de l’espace RVB. C’est l’unique composante transmise dans le cas de la télévision noir et blanc. Les composantes de chrominance portent l’information de couleur. Db (ou U) porte l’information sur le bleu et Dr (ou V) porte l’information sur le rouge. Chaque composante de l’une de ces représentations peut être retrouvé par combinaison linéaire des composantes de l’autre représentation.
Signal analogique et canal de propagation
Si aujourd’hui les dernières techniques de télédiffusion, parmi lesquelles figure le standard DVB-T2, permettent la réception de programmes vidéos en haute définition (typiquement, 1080 lignes), l’histoire de la télévision a débuté au début du XXeme siècle par la transmission d’images comprenant seulement quelques dizaines de lignes (W3XK, la première station de télévision, lancée le 2 juillet 1928 par Charles Francis Jenkins aux États-Unis diffusait une images composée de 48 lignes). Les techniques de télédiffusion ont donc évolué pendant près d’un siècle, introduisant de nombreuses améliorations (meilleure définition, couleur, son multi canaux, etc…). Le principal point commun entre tous les standards de télédiffusion reste l’architecture des réseaux . L’information vidéo produite par la chaine de télévision est transmise à une ou plusieurs stations émettrices via un réseau appelé backbone. Ce réseau peut s’appuyer sur différentes technologies de transmission (filaire, faisceau hertzien, ou encore satellite). Le signal portant la vidéo est ensuite émis simultanément par les différentes stations émettrices. Chacune de ces stations couvre une zone dont le rayon peut atteindre plusieurs dizaines de kilomètres et où se situe une multitude de récepteurs .
Jusqu’au début du XXIeme siècle, la télévision est transmise de manière analogique. Les lignes de l’image sont diffusées successivement en utilisant des signaux dont l’intensité est proportionnelle à l’intensité des composantes colorimétriques de l’image. Le signal de luminance est multiplexé en fréquence avec les signaux de chrominance. Les signaux de chrominance peuvent être soit transmis en quadrature de phase comme c’est le cas pour les standards NTSC (National Television System Comittee) ou PAL (Phase Alterning Line) soit multiplexés en temps, alternant entre les deux composantes d’une ligne de l’image à l’autre comme c’est le cas pour le standard SECAM (Séquentiel Couleur à Mémoire). Des signaux de synchronisation sont ajoutés entre chaque ligne d’une image ainsi qu’entre chaque image d’une vidéo. Le son est multiplexé en fréquence avec le signal vidéo. Ce principe permet au récepteur, dans des conditions idéales, de recomposer parfaitement la vidéo originale. Cependant, dans le cas d’une transmission au travers d’un canal de propagation réel, le signal est altéré notamment par le bruit et les échos potentiels.
Signal numérique
La vidéo brute est représentée sous la forme d’une suite de valeurs numériques discrètes : trois valeurs (correspondant aux trois composantes colorimétriques utilisées) pour chaque pixel de chaque image. Chaque valeur est représentée sous forme binaire (typiquement 8 bits). Ce flux vidéo brut est très lourd. Ainsi une vidéo de 1920 × 1080 pixels à 25 images par seconde représente environ 1,2 Gb/s. Afin de réduire le nombre d’éléments binaires à transmettre, le flux vidéo brut subit un codage de source. Ce codage de source tend à réduire la redondance d’information dans le flux binaire original. Il existe de nombreux types de codage de source pour les flux vidéos (MPEG-2 : Moving Picture Expert Group, MPEG-4, HEVC : High Efficiency Video Coding) et les plus performants permettent de réduire le débit binaire nécessaire (pour une vidéo de 1920 × 1080 pixels à 25 images par seconde) à quelques Mb/s. Le codage de canal réintroduit une forme de redondance dans le flux binaire issu du codage de source. Cette redondance permettra au récepteur de reconstituer le flux binaire original même si certains éléments binaires sont altérés lors de la transmission. L’étape du mapping consiste à regrouper plusieurs éléments binaires qui seront transmis pendant le même laps de temps (durée symbole). Un symbole est un motif de modulation à 2m états où m est le nombre d’éléments binaires par symbole (typiquement entre 1 et 12). Ce procédé permet de réduire la bande nécessaire à la transmission du signal. En contrepartie, plus le nombre de bits par symbole est élevé, plus le signal est sensible au bruit.
Après la transmission du signal sur le canal, la première étape consiste à « démapper » le signal. Le démapping consiste à retrouver le flux binaire transmis en fonction des symboles reçus. Ce flux binaire peut être assorti d’indices de confiance pour chaque élément binaire (en fonction du RSB estimé ou de la position de l’élément binaire dans le symbole par exemple) qui aidera le fonctionnement du décodeur de canal. Le but du décodage de canal est d’éliminer les éventuelles erreurs binaires qui auraient été introduites lors de la transmission du signal (à cause du bruit ou d’autres interférences par exemple). Pour cela, les suites d’éléments binaires issues du démapping (éventuellement assorties de valeurs de confiance) subissent un traitement (différent suivant le type de codage de canal) qui permet de déterminer quelle séquence binaire est la plus susceptible d’avoir produit le résultat observé après transmission sur le canal. Si le décodage de canal à bien retrouvé le flux binaire original, le décodage de source permet alors de reconstituer la vidéo transmise. Malheureusement, étant donné que le codage de source réduit énormément la redondance du signal original, quelques erreurs binaires restantes après le décodage de canal peuvent provoquer une erreur sur la vidéo reçue, qui peut affecter un nombre important de pixels, appelée un artefact. Alors qu’il est impossible lors d’une transmission analogique d’éliminer totalement le bruit, l’utilisation d’une transmission numérique avec un codage de canal efficace permet de recevoir une image totalement dénuée de bruit. Cependant cette technique a ses limites et requiert un RSB suffisamment grand sous peine de voir apparaître des artefacts voire de rendre strictement impossible l’affichage de la vidéo.
|
Table des matières
Introduction
1 Le standard DVB-T2
1.1 Historique
1.1.1 Généralités
1.1.2 Signal analogique et canal de propagation
1.1.3 Signal numérique
1.1.4 Modulation OFDM
1.2 Présentation du standard DVB-T2
1.2.1 Introduction
1.2.2 Paramètres OFDM
1.2.3 Codage de canal et entrelacement
1.2.4 Constellations tournées
1.2.5 Transmission multi-antennes
1.3 Conclusion
2 Évaluation des performances du standard DVB-T2
2.1 Présentation et validation de l’outil de simulation
2.1.1 Le simulateur DVB-T2
2.1.2 Simulations de validation
2.1.3 Autres résultats intéressants
2.2 Performances MISO en présence d’un déséquilibre de puissance
2.2.1 MISO distribué
2.2.2 Performances en MISO distribué
2.3 Conclusion
3 Le standard LTE
3.1 Standards de télécommunications mobiles
3.1.1 Généralités
3.1.2 Historique
3.2 Modulation et accès multiple
3.2.1 Downlink : OFDMA
3.2.2 Uplink : SC-FDMA
3.3 Turbo-code et HARQ
3.3.1 Turbo-code
3.3.2 HARQ
3.4 Transmission multi-antennes
3.4.1 Diversité de transmission
3.4.2 Formation de voie
3.4.3 Multiplexage spatial
3.5 Analyse comparative avec le standard DVB-T2
3.5.1 Paramètres OFDM
3.5.2 Voie montante
3.5.3 Codage de canal et entrelacement
3.6 Conclusion
4 Convergence des télécommunications mobiles et de la télédiffusion
4.1 Exemples de coopération entre télécommunications mobiles et télédiffusion
4.1.1 Télédiffusion dans les standards de télécommunications mobiles
4.1.2 Télécommunications mobiles et télévision
4.2 Contexte : projet ANR M3
4.3 Conclusion
5 Le réseau hybride
Conclusion