Aujourd’hui nous vivons une évolution technologique de grande ampleur. Elle a touché pratiquement tous les domaines et à tous les niveaux. Parmi les points forts de cette évolution les systèmes de transmission numériques sous leurs diverses formes. En effet, cette révolution numérique à inonder, entre autres, notre quotidien par des images digitales de toutes sortes et pour diverses applications. Cependant, toutes ces données numériques, plus particulièrement les images et la vidéo, présentent un inconvénient majeur lié essentiellement au volume d’informations numériques qu’il est nécessaire de traiter, transmettre et/ou stocker. La transmission d’une telle quantité de données nécessite des débits très élevées directement en contradiction avec les bandes passantes des canaux généralement limitées. De même, le stockage de toutes ces données numériques exigent des supports de tailles importantes .
L’une des solutions indispensables dans ce cas est la compression. Cependant, cette compression s’accompagne souvent d’une sorte de dégradation. D’autant plus que cette altération des données et des images compressées augmente lorsque nous désirons atteindre des taux de compression plus élevé. La problématique de la compression en imagerie numérique est bien entendu trouver le meilleur compromis Débit/distorsion .
Les méthodes de compression
La compression peut être définie comme étant un système dont l’entrée est une image sans compression et la sortie est un flux de données numériques relativement court représentant l’image compressée. Le processus inverse est appelé décompression permettant la reconstruction de l’image à partir du flux de données numériques. Parfois, les systèmes de compression et de décompression ensembles sont appelés « Codec » (codage pour compression et décodage pour décompression). Suivant la qualité de sortie de ces systèmes en distingue deux types de méthodes de compression.
Compression sans pertes
Quand on parle de compression sans perte (Lossless Compression) on fait souvent allusion aux opérations de codage. Dans ce cas les données compressées et décompressées sont tout à fait équivalentes. Ces techniques de compression sans pertes ou de codage sont qualifiées de compression réversible. Elles sont plus particulièrement utilisées pour les données informatiques dont l’exactitude est décisive (Exemple : données textuelles, programmes, images médicales…). Normalement, les facteurs de compression accomplis par ces algorithmes n’aboutissent qu’à des valeurs faibles de l’ordre de 2 à 3 au maximum.
Compression avec pertes
Quant aux méthodes de compression avec pertes (Lossy Compression) elles sont basées essentiellement sur l’élimination d’une partie de l’information jugée redondante. Ceci a pour effet l’obtention de meilleurs taux de compression, de plus en plus élevés, au détriment d’une certaine dégradation. Pour cette raison ces techniques de compression sont dites irréversibles. En effet, l’image originale et l’image reconstruite après compression ne sont pas exactement les mêmes.
Mesures de performances des méthodes de compression
Comme tout autre système, les mesures de performances d’un algorithme de compression d’images sont des critères importants pour la sélection et l’évaluation d’un algorithme. Les performances des algorithmes de compression peuvent être vues suivant plusieurs perspectives, dépendant des besoins d’applications. Parmi les critères souvent utilisés pour les mesures de performances dans le cas des méthodes de compression nous pouvons citer :
● Qualité objective mesurée entre autres par le SNR (Signal to Noise Ratio), le PSNR (Peak Signal to Noise Ratio), la MSE (Mean Square Error), le RC (Rapport de compression) …etc.
● La qualité subjective des images reconstruites basée surtout sur la qualité visuelle
● La complexité relative de l’algorithme,
● La vitesse d’exécution
● … etc.
Rapport de compression et débit
Le rapport de compression (RC) est la mesure de performance la plus populaire pour un algorithme de compression. Il est défini comme le rapport de nombre des bits nécessaires pour représenter les données originales au nombre de bits dans les données compressées. Considérons une image en niveaux de gris 256×256 pixels, si chaque pixel est représenté sur 01 octet, elle aura besoin de 65536 octets pour son stockage. Si la version compressée de l’image nécessite seulement 4096 octets.
Mesure de la qualité ou PSNR
La mesure de la qualité des algorithmes de compression d’images est basée essentiellement sur certains critères comme par exemple :
● la racine carrée de l’erreur quadratique moyenne (RMSE : root-meansquared error),
● le rapport signal à bruit (SNR : signal-to-noise ratio)
● le pic du rapport signal à bruit (PSNR : peak-signal-to-noise ratio).
Classification des méthodes de compression des images
Codage de type dictionnaire
Le terme de codage, de type dictionnaire, provient de l’implémentation dans laquelle un dictionnaire de sous-chaines est construit au fur et à mesure du parcours de la chaîne. Sans mentionner toute la littérature existante sur lesujet, il suffit de noter que c’est la famille utilisée dans les algorithmes de compression de données de type ZIP (ou ARJ) pour en mesurer le succès. L’algorithme de compression d’image GIF est basé sur cette technique, plus précisément sur la variante LZW, proposée par Welsh [5] en 1984. En 1987, Compuserve, le leader des fournisseurs d’accès au réseau, introduit ce format afin d’accélérer la transmission des images sur celui-ci. Pour compresser une image, il suffit de réordonner la matrice des pixels en une liste de valeurs et de comprimer cette liste à l’aide de l’algorithme LZW. Cette technique simple est suffisante pour obtenir un taux de compression de l’ordre de 2 et donc de réduire de moitié le temps de transmission [6].
Codage par prédiction
Les méthodes prédictives proposent de transformer de manière réversible les chaînes de symboles en des chaînes plus simples pour l’algorithme de compression. Il s’agit d’aider celui-ci en introduisant un modèle permettant de prédire chaque symbole apparaissant dans la chaîne en fonction des symboles précédents et de coder à l’aide de l’algorithme de codage universel l’erreur de prédiction au lieu du symbole lui-même. Ceci suppose que les symboles possèdent une interprétation, ce qui est le cas pour les images. Il n’est donc pas étonnant que, en 1995, lorsque l’algorithme PNG, conçu comme une alternative non encombrée par des brevets de GIF, a été proposé, cette prédiction ait été ajoutée. Les modèles proposés utilisent des prédictions linéaires de l’intensité lumineuse en fonction de celle des voisins déjà connus. Les erreurs de prédictions sont alors codées par une autre variante de l’algorithme LZ77, c’est l’algorithme ″deflate″. L’amélioration de performances est notable puisque l’on peut atteindre des taux de l’ordre de 3 avec l’algorithme PNG[6].
Codage statistique
Les techniques de codage universel ne font pas intervenir la distribution de probabilité de la source mais s’y adaptent asymptotiquement. A l’opposé, si l’on connaît cette distribution, on peut construire un code quasi optimal. Deux algorithmes se disputent la prédominance pour ces codages dits statistiques : le plus ancien, l’algorithme de Huffman [7], est simple et efficace mais il est moins performant que l’algorithme de compression arithmétique [8], dont la complexité est plus grande. Le choix entre ces deux algorithmes se fait suivant les contraintes de performance et de complexité. La voie de la modélisation statistique est une voie intermédiaire. Elle remplace la distribution inconnue par un modèle connu et utilise cette nouvelle distribution pour coder les symboles à l’aide d’un algorithme de codage statistique. Si le modèle n’est pas trop éloigné de la réalité, il permet de compresser les données efficacement sans avoir recours à un comportement asymptotique. Les modèles utilisés varient en complexité : les modèles les plus simples font l’hypothèse que tous les éléments de la chaîne sont indépendants et identiquement distribués tandis que les modèles les plus complexes conditionnent le choix de la distribution de probabilités pour un nouveau symbole à tous ceux déjà codés dans le passé. Les meilleurs résultats de compression sans perte sont obtenus avec des modèles contextuels de type chaîne de Markov où la loi utilisée dépend du voisinage et est apprise au fur et à mesure du parcours de l’image. Ces modèles permettent des taux de compression dépassant 4 au prix d’un algorithme complexe et lent [6].
|
Table des matières
Introduction générale
Chapitre1 : Aperçu sur les méthodes de compression
1. Introduction
2. Les méthodes de compression
2.1 Compression sans pertes
2.2 Compression avec pertes
3. Mesures de performances des méthodes de compression
3.1 Rapport de compression et débit
3.2 Mesure de la qualité ou PSNR
4. Classification des méthodes de compression des images
4.1 Codage de type dictionnaire
4.2 Codage par prédiction
4.3 Codage statistique
4.4 Compression par transformée
4.5 Compression fractale
5. Conclusion
Chapitre 2 : Les méthodes de codage progressif
1. Schéma général de compression par transformations
1.1 Transformation de l’image
1.2 Quantification
1.3 Coage entropique
2. Transformation en cosinus discrète
2.1 La DCT 1-D
2.2 La DCT 2-D
3. Transformation en ondelettes discrète
3.1 Inversibilité
3.2 Condition d’admissibilité
3.3 Implémentation par banc de filtres
3.4 Implémentation par ‘’lifting scheme’’
4. Méthodes de codages progressifs
4.1 L’algorithme EZW: Embedded coding with Zerotree of Wavelet coefficients
4.2 SPIHT: Set Partitioning In Hierarchical Trees
4.3 SPECK: Set-Partitioning Embedded Block Coder
5. Algorithme de codage SPIHT
5.1 Méthode de codage
5.2 Méthode de décodage
6. Les images en couleurs
7. Résultats de compression
8. 8. Conclusion
CHAPITRE 3 : Les réseaux de capteurs sans fil (WSN)
1. 1. Introduction
2. 2. Les réseaux de capteurs sans fil
3. 3. Domaines d’applications des réseaux de capteurs sans fil
Application militaire
Applications environnementales
Application à la surveillance
Applications médicales
4. Constitution d’un nœud capteur sans fil
4.1. Architecture d’un nœud capteur sans fil
Unité de Captage
Unité de traitement
Unité de Communication
Unité de puissance
4.2. Prototypes de nœuds de capteurs
4.3. Plateformes logicielles
5. Consommation énergétique d’un nœud capteur
Les collisions
L’écoute à vide (idle listening)
L’écoute abusive (overhearing)
La transmission radio
6. Problématiques des réseaux de capteurs sans fil
Energie
Ressources limitées des nœuds
Environnement de communication non contrôlable
7. Les réseaux de capteurs d’images sans fil
Réseaux de capteurs d’images fixes
Réseaux de capteurs de vidéo
8. Spécificités des réseaux de capteurs d’images
Capture du signal
Besoins de mémoire
Traitement du signal
Transmission d’image
9. Compression d’image dans les réseaux de capteurs sans fil
9.1. Introduction
9.2. Classification des algorithmes de compression d’image pour réseaux de capteurs
10. Conclusion
CHAPITRE 4 : Algorithme de Compression à faible consommation
1. Introduction
2. Algorithme de compression JPEG
La transformée par DCT
Quantification
Codage en ZigZag
Codage par RLE et Huffman
3. Consommation énergétique du JPEG
4. Temps d’exécution du JPEG
5. Modèle de la consommation énergétique du JPEG
5.1 Modèle énergétique de la DCT2D
5.2 Modèle énergétique de la quantification
5.3 Modèle énergétique du balayage Zigzag
6. Principe de l’algorithme JPEG Zonale
6.1. Méthode S-JPEG
6.2. Méthode T-JPEG
7. Comparaison des performances des deux formes
8. Calcul du gain énergétique entre JPEG et JPEG zonale
Modèle énergétique de la DCT2D zonale
Modèle énergétique de la quantification en prenant en considération la zone
Modèle énergétique du balayage en Zigzag
9 . CONCLUSION
CONCLUSION GENERALE