Generalites sur la compression d’images

Le traitement d’images constitue actuellement l’une des grandes orientations du traitement de l’information acquise à partir de capteurs offrant des capacités de plus en plus importants. L’essor des potentialités des calculateurs a permis d’envisager des procédures de plus en plus complexes pour mettre en évidence ce que l’œil peut voir. Le fossé entre la perception discrète du monde analogique, et la réalité de ce monde, est alors apparu à tous, et il a fallu développer des algorithmes pour appréhender cette perception numérique. Le traitement d’images désigne un ensemble de méthodes dont l’objectif est soit de transformer des images ( par exemple pour en améliorer l’apparence ou pour les coder de manière plus compacte en vue d’une transmission), soit d’en extraire de l’information utile. Il s’agit donc d’un domaine très vaste, qui trouve de plus en plus d’applications. Le problème est le développement des échanges d’information sur Internet, la masse de données volumineuses à transmettre ; par exemple la transmission des images médicales en télémédecine.

GENERALITES SUR LA COMPRESSION D’IMAGES

COMPRESSION D’IMAGES

Dans de nombreux domaines, l’image numérique remplace les images analogiques classiques telles que les photographies, radiographies, etc… Le grand nombre de données brutes nécessaires pour la décrire rend la durée de transmission souvent trop longue et le stockage trop coûteux. Il est donc nécessaire de compresser l’information contenue dans l’image en extrayant l’information visuelle qui sera codée: on réalise ainsi une réduction très sensible du volume de données. Le but de la compression d’image est de réduire la quantité de données requises pour représenter les informations présentes dans une image. Les bases théoriques et pratiques de la compression d’images ont été déjà décrites dans un mémoire de DEA présenté récemment à l’Institut et Observatoire de Géophysique Antananarivo par RAHARISON, nous donnons ci-après des rappels et quelques compléments comme suite de cette étude.

Principe
Etant donné deux représentations de données D1 et D2 d’une même information, avec d1 et d2 unités de données.

Dans le domaine du traitement d’images, l’unité de données utilisée pour représenter une image est typiquement le bit, et l’information est les traits requis pour décrire l’image. La compression tend alors à diminuer le nombre de bits nécessaire pour représenter les informations contenues dans une image.

Types et méthodes de compression

Deux types de schémas de compression existent :

– Compression sans pertes : il s’agit d’une opération réversible où l’image reconstruite est identique à l’original. Les méthodes de ce type procèdent seulement à une réduction de redondance, elles ont des performances de compression limitées. Les méthodes réversibles ou sans perte permettent des taux de compression de l’ordre de 1 à 4. Les schémas de codage typiques sont :
o le codage de Huffman (pour les cas où les différences d’images présentent des histogrammes très resserrés),
o le codage par plages (qui traite les zones de faible variation de niveaux de gris),…
– Compression avec pertes : il s’agit d’une opération irréversible, l’image reconstruite étant dégradée par rapport à l’original. Ces méthodes utilisent une phase d’extraction d’information pertinente en plus de la réduction de redondance. Elles ont des performances de compression importantes. Les méthodes irréversibles ou avec perte permettent d’avoir des taux de compression d’un ordre de grandeur plus important que les méthodes précédentes. Les techniques les plus utilisées sont :
o la méthode de la transformée en cosinus discret ( DCT ), utilisée par blocs ( on atteint des taux de 10 sans effet de bloc visible) ou sur toute l’image (taux de compression de l’ordre de 20)
o la méthode par transformée en ondelettes qu’on va discuter plus tard dans les algorithmes EZW et SPIHT .

On peut aussi distinguer :
– les méthodes spatiales (ou directes) qui agissent directement sur les échantillons d’une image dans le domaine spatial.
– les méthodes par transformation qui reposent sur une transformée de l’image originale.

Algorithme de compression

Décrivons les principales étapes de l’algorithme utilisé dans la norme JPEG :
– Tout d’abord cet algorithme débute par le découpage de l’image à transmettre en blocs de (8×8). Cette décomposition sert à comprimer de manière efficace les zones localement homogènes.
– Chaque bloc est ensuite décomposé grâce à la transformée DCT bidimensionnelle.
– La représentation fréquentielle de chaque bloc est ensuite quantifiée. Cette quantification dépend du taux de compression que nous voulons obtenir et de la qualité d’image souhaitée.
– Nous transformons le bloc de 8 x 8 coefficients en un vecteur de 64 éléments en parcourant le bloc selon un zigzag du coin en haut à gauche à celui en bas à droite . Nous avons aperçu que, dans un bloc, l’énergie était surtout localisée dans les basses fréquences en haut à gauche. Ce parcours en zigzag augmente la probabilité d’avoir les derniers coefficients du vecteur nuls puisqu’ils sont quantifiés. Les séquences de zéros figurant dans le vecteur sont codées de manière efficace. La séquence de zéros est codée uniquement par sa longueur.
– Le parcours en zigzag et ce codage réduisent le nombre de bits nécessaire pour représenter la DCT quantifiée du bloc sans perdre d’information.
– Enfin, la dernière étape consiste en un codage entropique du signal comme le codage de Huffman. On va maintenant décrire chaque bloc de traitement.

Caractéristiques de la transformée discrète par cosinus
La transformée discrète par cosinus a la propriété que pour les images sans discontinuités aiguës, la plupart des coefficients non négligeables c’est-à-dire la plupart de l’énergie spectrale se trouve dans les premiers termes, permettant ainsi d’enlever les autres coefficients à faible énergie sans apporter une perte d’information très grave. Le terme à la position (0,0) c’est-à-dire C(0,0) est appelé composante DC et les autres termes sont les composantes AC. Le premier terme DC représente une valeur moyenne des pixels de l’image, les composantes AC indiquent quelle énergie spectrale est présente à chaque fréquence spatiale.

Décompression de l’image JPEG

L’image JPEG est une image qui a subi beaucoup de transformations. Lors de la quantification, des données ont été supprimées. Celles-ci ne pourront donc pas être récupérées à la décompression. Les étapes de la décompression sont les suivantes :
– Ouverture du fichier JPEG
– Rétablissement de la matrice DCT quantifiée, en suivant le chemin inverse de la méthode de Huffman.
– Rétablissement de la matrice DCT déquantifiée, en multipliant les éléments de la matrice précédente par les coefficients correspondant à la matrice de quantification.
– Rétablissement de la matrice des pixels de l’image à l’aide d’une transformation DCT inverse.

On peut observer que la décompression est plus rapide que la compression car il n’y a plus lieu d’arrondir ou de négliger certaines valeurs.

JPEG progressif

L’idée est de transmettre d ’abord une image de basse qualité, puis l ’améliorer par des ajouts successifs. Il existe deux façons pour faire la transmission progressive avec JPEG :
❖ sélection spectrale : transmettre d ’abord les coefficients DC et quelques coefficients AC, puis d ’autres coefficients AC.
❖ approximations successives : transmettre d ’abord des coefficients grossièrement quantifiés, puis les quantifier plus finement et transmettre cette nouvelle information .

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
PARTIE I : GENERALITES SUR LA COMPRESSION D’IMAGES
Chapitre I COMPRESSION D’IMAGES
I.1 Introduction
I.2 Principe
I.3 Types de redondances dans une image
I.4 Types et méthodes de compression
I.5 Evaluation de la qualité de l’image après décompression pour le cas de la compression avec pertes
I.5.1 Evaluation quantitative
I.5.2 Evaluation visuelle ou qualitative
I.6 Procédé de compression
I.7 Exemples de compression classique
I.7.1 Codage entropique
I.7.2 Codage par plage
I.7.3 Compression standard JPEG
I.7.3.1 Principe
I.7.3.2 Algorithme de compression
I.7.3.3 Découpage en bloc
I.7.3.4 Transformée DCT
I.7.3.5 Quantification
I.7.3.6 Codage
I.7.3.7 Décompression de l’image JPEG
I.7.3.8 JPEG progressif
I.7.3.9 Illustration
I.7.3.10 Limites de la compression JPEG
Chapitre II TRANSFORMEE EN ONDELETTES ET ANALYSE MULTIRESOLUTION
II.1 Introduction
II.2 Transformée en ondelettes
II.3 Analyse multirésolution
II.3.1 Banc de filtres numériques et analyse multirésolution
II.3.2 Algorithmes de Mallat
II.3.3 Schéma de décomposition et algorithmes en 1D
II.3.4 Algorithmes et disposition des images dans une décomposition en 2D
II.4 Illustrations
II.4.1 Décomposition du signal à une dimension
II.4.2 Décomposition du signal à deux dimensions
PARTIE II : EXEMPLES D’ALGORITHMES DE CODAGE INTER-BANDES : EZW et SPIHT – TRANSMISSION PROGRESSIVE D’IMAGES
Chapitre III ALGORITHMES DE CODAGE EZW ET SPIHT
III.1 Introduction
III.2 Codage EZW
III.2.1 Méthode EZW
III.2.1.1 Compression de la carte des coefficients significatifs
III.2.1.2 Quantification par approximation successive
III.2.2 L’algorithme EZW
III.2.3 Illustration
III.3 Codage SPIHT
III.3.1 Principe
III.3.2 Algorithme
III.3.3 Illustration
Chapitre IV TRANSMISSION PROGRESSIVE D’IMAGES
IV.1 Introduction
IV.2 Principe
IV.3 Processus de la transmission progressive
IV.4 Système de transmission progressive
IV.5 Critères d’évaluation pour la transmission progressive
IV.6 Approximations successives
IV.7 Avantages de la transmission progressive d’images par rapport à la transmission classique
IV.8 Conclusion
PARTIE III : RESULTATS ET DISCUSSIONS
Chapitre V DONNEES ET LOGICIELS UTILISES
V.1 Données
V.2 Logiciels utilisés
Chapitre VI RESULTATS ET DISCUSSIONS
VI.1 Résultats de transmission progressive de l’image LENA avec l’algorithme JPEG
Discussion
Conclusion
VI.2 Résultats sur la transmission progressive d’images avec EZW et SPIHT
VI.2.1 Transmission de l’image LENA
VI.2.1.1 Image LENA transmise en 12 étapes avec EZW
Discussion Conclusion
VI.2.1.2 Image LENA transmise en 12 étapes avec SPIHT
Discussion
Conclusion
VI.2.2 Transmission de l’image TETE
VI.2.2.1 Image TETE transmise en 8 étapes avec EZW
Discussion
Conclusion
VI.2.2.2 Image TETE transmise en 8 étapes avec SPIHT
Discussion
VI.2.3 Transmission de l’image ARBRE
VI.2.3.1 Image ARBRE transmise en 8 étapes avec EZW
Discussion
VI.2.3.2 Image ARBRE transmise en 8 étapes avec SPIHT
Discussion
VI.3 Temps de transmission
VI.3.1 Temps de transmission pour l’algorithme classique
VI.3.2 Temps de transmission pour l’algorithme JPEG progressif
VI.3.3 Temps de transmission pour l’algorithme EZW/SPIHT
Discussion
CONCLUSION GENERALE
ANNEXE A
ANNEXE B
REFERENCES BIBLIOGRAPHIQUES

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *