Transmettre de la vidéo en temps réel

La transmission de vidéos en temps réel implique quelques particularités abordées au cours de ce premier chapitre. Le volume important de données à transmettre impose une compression de l’information car aucun canal conventionnel ne permet un débit suffisant. Cette opération appelée codage de source génère un flux dont les caractéristiques dépendent du type de codeur utilisé. Même avec une grande efficacité de compression, la transmission de vidéos en temps réel implique la réalisation d’une liaison à haut débit, cette dernière étant chargée d’assurer l’échange de données entre la source (caméra) et un ou plusieurs destinataires (écrans). Puisqu’il est possible, dans une certaine mesure, d’augmenter la puissance d’émission ou d’élargir la bande passante pour augmenter le débit, l’optimisation séparée du codeur de source et de la liaison peut être envisagée en première approche. Or, il semble plus intéressant d’étudier les caractéristiques de la source pour en dégager des recommandations sur le fonctionnement de la liaison. La notion de source doit alors être vue au sens large puisqu’elle inclut le flux issu du codeur de source ainsi que les entêtes ajoutés pour l’adressage.

Le codage de source

Le codage de source est une opération de compression de données qui vise à réduire le nombre de bits représentant l’information à stocker ou à transmettre. Cette compression s’effectue au moyen d’un algorithme qui change la représentation de l’information. La compression des vidéos se faisant généralement avec pertes, celles-ci sont plus ou moins acceptables suivant une certaine qualité de service visée. Depuis la fin des années 80, la volonté de passer à une télévision numérique a été un des moteurs des recherches en matière de compression des vidéos [1][2]. Ainsi, la première norme du Moving Picture Experts Group (MPEG), la norme MPEG-1, sortie en 1988 produisait une qualité visuelle similaire aux cassettes VHS  . Elle avait pour cible le stockage d’un film sur un CD. Elle partage avec sa descendante, la norme MPEG-2, l’Audio Layer 3 : la couche de compression de l’audio communément appelée MP3. La norme MPEG-1 possédant tous les concepts principaux de la compression vidéo, elle est un point de départ intéressant pour la compréhension des mécanismes de changement de la représentation de l’information dans le but de réduire la taille de celle-ci. Ces mécanismes exploitent les corrélations spatiale et temporelle entre les pixels plus ou moins présentes dans une vidéo [3].

En traitement d’image, les détails sont qualifiés de « hautes fréquences » car ils se caractérisent par de brèves transitions de luminosités et de couleurs entre les pixels. L’œil humain y est moins sensible qu’aux basses fréquences qui, elles, représentent de grandes étendues de surfaces homogènes. Or, la corrélation spatiale entre les pixels d’une zone de détails est plus faible que ceux d’une zone homogène. Les hautes fréquences seront donc plus fortement compressées que les basses fréquences. L’opération visant à réduire la redondance spatiale est appelée codage intra-frame. Elle est similaire à la technique utilisée par le format JPEG (Joint Photographic Experts Group) pour les images fixes. De plus, il est rare que deux images (ou frames) qui se suivent soient complètement différentes. Il y a donc également de la redondance temporelle que le codage inter-frames est chargé de réduire.

Codage intra-frame 

Une image numérique non compressée est décrite par trois matrices (rouge, verte et bleue) dont chaque élément est un pixel (Picture Element) représentant le « poids » en rouge, vert et bleu. Comme l’œil humain est moins sensible aux couleurs qu’à l’intensité lumineuse, une transformation linéaire qui permet de passer de ce système RVB aux systèmes YCbCr ou YUV est utilisée. Dans les deux cas, Y est une matrice de luminance  , les deux autres (Cb et Cr ou U et V) représentent la chrominance. Les figures 1.1a à 1.1d montrent un exemple de changement de représentation. Cette opération permet de sous-échantillonner les matrices de chrominances par rapport à celle de luminance, les échantillonnages les plus courants étant :

– le 4:4:4 : il n’y a pas de sous-échantillonnage, la qualité est optimale.
– le 4 : 2 : 2 : la résolution horizontale des matrices de chrominance est divisée par 2.
– le 4:2:0 : les résolutions verticale et horizontale des matrices de chrominance sont divisées par 2.

Nous voyons que cette première compression est à pertes puisqu’il y a perte d’information. Ensuite, pour exploiter la plus faible sensibilité de l’œil aux hautes fréquences, l’image est fractionnée en blocs de 8×8 pixels transposés dans le domaine spectral par une transformée en cosinus discrète (Discrete Cosine Transform – DCT).

Codage inter-frames

Le codage inter-frames permet de réduire la redondance temporelle d’une vidéo. Pour cela, la vidéo est segmentée en GOP (Groups Of Pictures) constitués de trois types d’images dans lesquelles le déplacement de macroblocs de taille 16×16 pixels est prédit. Les trois types d’images sont :
– les images I pour Intra coded picture : elles constituent les images de référence. Comme elles sont indépendantes des images qui les entourent, elles permettent de stopper la propagation d’erreurs et de décompresser au vol.
– les images P pour Predictive coded picture : elles sont reconstituées à partir de l’image I ou P précédente. Elles sont en moyenne compressées deux fois plus que les images I [4].
– les images B pour Bidirectionally predictive coded picture : Elles sont reconstituées à partir des images I ou P précédente et suivante. Elles sont en moyenne compressées quatre fois plus que les images I [4].

Lors de la compression, un analyseur de mouvement calcule le vecteur de déplacement de chaque macrobloc d’une image à l’autre. L’image reconstituée par prédiction est ensuite comparée à l’image originale. Cette comparaison génère une image d’erreurs qui sera très fortement compressible car pauvre en détails. Pour une image P ou B, l’information transmise est donc cette image des erreurs ainsi que des vecteurs de mouvement. La prédiction des mouvements par rapport à l’image suivante est nécessaire car des macroblocs qui n’étaient pas dans l’image précédente peuvent apparaître. Les images P n’étant pas reconstruites à partir de l’image suivante, elles comportent naturellement plus d’erreurs que les images B. Ainsi, bien qu’elle limite la propagation d’erreurs, une image P est plus volumineuse qu’une image B. Lors de changements de scène ou de plan dans une séquence, aucun macrobloc n’est présent dans la frame suivante et l’image des erreurs pourra avoisiner la taille d’une image I.

L’ordre de diffusion de ces frames à travers le système de transmission est conditionné par l’ordre de décodage d’un tel GOP. Ainsi, il faut disposer de l’image I puis reconstituer l’image P suivante avant de décompresser les images B intermédiaires. L’ordre de décompression est alors : IPBBPBBIBBP. . . Un autre GOP couramment utilisé est IBBBPBBBPBBBI. Pour une vidéo à 24 images par secondes, il y a ainsi deux images I par secondes et plus d’images B, un débit plus faible mais une propagation d’erreurs plus importante. L’ordre de décodage est alors IPBBBPBBBIBBB. . . En conséquence, l’ordre de compression/décompression de ces frames impose un retard de présentation de la vidéo à l’utilisateur final. En effet, comme il faut connaître l’image I ou P suivante avant de calculer les images B intercalées, le compresseur devra attendre avant de transmettre le flux au système de transmission.

Le débit moyen visé par le MPEG-1 est de 1,5 Mbits/s, l’objectif étant le stockage d’un film sur un CD. Toutefois, le choix du facteur de quantification k permet de modifier le débit binaire dans une certaine mesure. L’utilisation d’un buffer (mémoire tampon) permet de contrôler l’atteinte du débit visé. En effet, lorsque la scène présente des détails important ou de brèves transitions (scènes d’action), le taux de compression diminue et le buffer se remplit. Lorsqu’il est trop rempli, le facteur de quantification augmente pour vider la mémoire. Inversement, la qualité est améliorée lors de scènes plus lentes. Ainsi, un arrêt sur image des scènes d’action montre qu’elles sont très pauvres en détails. Dans le cas d’une transmission en temps réel, un tel système doit présenter un buffer très limité pour minimiser la latence. En outre, cela demande une adaptabilité du débit du compresseur plus importante que le MPEG-1 n’offre malheureusement pas.

Tout ceci montre qu’il est difficile de prédire le débit utile à la transmission de vidéo tant ce dernier dépend de la scène filmée. Les scènes réelles qui ne comportent aucun changement de plan et avec de grandes étendues homogènes (la mer, le ciel) ne devraient pas nécessiter un débit aussi important qu’un film d’action pour une même qualité de service. Enfin, une liaison générant peu d’erreurs permet d’utiliser un GOP avantageux sur le plan de la latence. Cette dernière remarque illustre le propos d’entrée de ce chapitre : il existe une forte connexion entre les caractéristiques de la source et le paramétrage de la liaison.

Le MPEG-2

Lorsqu’au début des années 90, les débits des réseaux s’améliorent, le Moving Picture Experts Group voulut faire évoluer son format de compression pour proposer plus de fonctions et de qualité visuelle. Le format MPEG-2 est ainsi approuvé en 1994 et se voit l’objet de la recommandation H.262 de l’UIT-T  . Un décodeur MPEG-2 pouvant décompresser du flux MPEG-1, ce format peut-être vu comme une amélioration de ce dernier. La gestion de l’entrelacement est notamment ajoutée (affichage alternatif des lignes paires et impaires d’une image) et la résistance aux erreurs accrue. La norme introduit pour la première fois le concept de profils et de niveaux qui permettent d’adapter le compresseur à l’application visée. Ainsi, toutes ses améliorations ont fait du MPEG-2 le premier standard de compression pour la télévision numérique. Le média cible pour profiter d’une meilleure qualité est le DVD qui offre 7 fois plus d’espace de stockage que le CD.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
1 Transmettre de la vidéo en temps réel
1.1 Le codage de source
1.1.1 Codage intra-frame
1.1.2 Codage inter-frames
1.1.3 Le MPEG-2
1.1.4 Le MPEG-4
1.1.5 Conclusions sur le codage de source
1.2 Architecture orientée réseau
1.2.1 Piles de protocoles
1.2.2 La couche d’abstraction réseau du H.264
1.2.3 Les protocoles RTP et UDP
1.2.4 Le protocole IP
1.2.5 Conclusions sur l’orientation réseau
1.3 Résistance aux erreurs
1.3.1 Impact de la perte de paquets
1.3.2 Relation entre TPP et TEB
1.3.3 Outils de résistance aux erreurs
1.3.4 Codage de canal
1.3.5 Codage conjoint source-canal
1.3.6 Conclusions sur la résistance aux erreurs
1.4 Modulations mono et multi-porteuses
1.4.1 Principes généraux de l’OFDM
1.4.2 Intérêts de l’OFDM
1.4.3 Inconvénients de l’OFDM face aux systèmes mono-porteuse
1.4.4 Conclusions sur les mono et multi-porteuses
1.5 Conclusion du chapitre
2 Propagation des ondes radio en milieu marin
2.1 Propagation dans l’atmosphère
2.1.1 La réfraction des ondes dans la troposphère
2.1.2 Atténuation par les gaz de l’atmosphère
2.1.3 Atténuation par les hydrométéores
2.1.4 Conclusions sur la propagation dans l’atmosphère
2.2 Le modèle à deux trajets
2.2.1 Construction du modèle
2.2.2 Expression du champ résultant
2.2.3 Expression du facteur de réflexion
2.2.4 Expression du facteur de divergence
2.2.5 Première mise en œuvre et conclusions
2.3 Diffraction et diffusion par la surface de la mer
2.3.1 Intégration de la diffraction sphérique
2.3.2 La diffusion par la surface de la mer
2.3.3 Le masquage par les vagues
2.3.4 Conclusions sur la diffraction et la diffusion
2.4 Mise en œuvre des modèles
2.4.1 Distance de liaison tangente
2.4.2 Amplitude efficace du champ en limite de visibilité radio
2.4.3 Diversité de polarisation
2.4.4 Diversité spatiale
2.4.5 Diversité de fréquence et bande de cohérence
2.4.6 Conclusions sur la mise en œuvre des modèles
2.5 Conclusion du chapitre
3 Modélisation du canal de transmission
3.1 Synthèse des paramètres de transmission
3.1.1 Puissance reçue
3.1.2 Puissance du bruit
3.1.3 Modulations, débit et RSB utile
3.1.4 Estimation du seuil de sensibilité du récepteur
3.1.5 Conclusions sur la synthèse des paramètres de transmission
3.2 Développement d’un modèle de canal incluant antennes et mouvements de plateforme
3.2.1 Effets des mouvements de plateforme
3.2.2 Modélisation géométrique et intégration des mouvements
3.2.3 Intégration des antennes
3.2.4 Expression matricielle de la puissance reçue
3.2.5 Fonctionnement du script et conclusions
3.3 Mise en œuvre du modèle de transmission
3.3.1 Première simulation en l’absence d’attitude
3.3.2 Approximation des mouvements d’une embarcation légère sur une houle régulière
3.3.3 Simulations avec une houle régulière
3.3.4 Décalage et étalement Doppler
3.3.5 Conclusions sur les simulations
3.4 Conclusion du chapitre
4 Étude et réalisation de structures rayonnantes adaptées aux plateformes
4.1 Sélection d’antennes adaptées aux plateformes
4.1.1 Généralités sur les antennes
4.1.2 Sélection par les méthodes de pointage
4.1.3 Détermination d’une structure adaptée au navire support
4.1.4 Mise en œuvre
4.1.5 Détermination d’une structure adaptée à l’embarcation légère
4.1.6 Conclusions sur la sélection de structures adaptées
4.2 Conception d’une structure pour embarcation légère
4.2.1 Synthèse du réseau circulaire
4.2.2 Choix et dimensionnement des éléments rayonnants
4.2.3 Optimisation du profil de la structure
4.2.4 Résultats de simulation
4.2.5 Étude du couplage
4.2.6 Conclusions sur la conception
4.3 Réalisation et mesures de la structure
4.3.1 Caractérisation du circuit d’alimentation
4.3.2 Présentation du prototype
4.3.3 Présentation des mesures
4.3.4 Conclusions sur la réalisation et les mesures
4.4 Conclusion du chapitre
Conclusion

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *