Principe du tatouage numérique
L’objet de ce mémoire est de développer des techniques de tatouage numérique, dont l’une des principales applications est la protection des droits d’auteur sur des œuvres numériques. La prolifération des documents numériques conduit en effet à une remise en cause de la gestion classique des droits d’auteur. Un utilisateur mal intentionné peut instantanément obtenir une copie d’un document numérique qui est identique à l’original, et en contester la propriété. Le document tatoué est destiné à être distribué à grande échelle, il est donc amené à subir des déformations. Celles-ci peuvent être involontaires ou volontaires. La robustesse à de telles attaques est l’une des propriétés essentielles d’une méthode de tatouage. Une autre contrainte du tatouage est la quantité d’information que l’on peut insérer, ou capacité. En effet, pour une fiabilité de détection donnée, plus l’on insère d’informations, plus la déformation est importante. On doit donc trouver un compromis entre trois objectifs antagonistes : imperceptibilité, robustesse et capacité. Le schéma du tatouage numérique est résumé sur la Figure 1.01 : un message m contenant L bits d’information est transformé selon une clé secrète k (qui est spécifique au tatoueur) en un tatouage w qui est ensuite inséré dans le document x (ou hôte) pour donner un document tatoué y. C’est la phase d’insertion. Ici, w est exprimé sous la forme d’un bruit qui est ajouté au document, la déformation dépendant de la puissance du bruit. y est ensuite copié et attaqué, ce qui est modélisé par la transmission dans un canal soumis à du bruit. Le document reçu est appelé z. La réception d’un document consiste en deux parties : d’une part, la détection du tatouage et d’autre part, s’il est présent, son décodage. La phase de détection consiste à prouver la présence d’un tatouage dans z grâce à k. La phase de décodage consiste à calculer une estimation de m. Si la taille du message inséré L est suffisamment grande et contient une information intelligible, certains auteurs considèrent que la détection devient inutile puisqu’on peut appliquer un simple décodage. Si la chaîne décodée est inintelligible, on considère qu’il n’y a pas de tatouage. Si le document original n’est pas utilisé à la réception, l’algorithme de tatouage est qualifié d’aveugle. Dans le cas inverse, l’algorithme est qualifié de non aveugle ou à décodeur informé. Si le document original est utilisé dans la construction de w, on parlera de tatouage informé. Lorsque plusieurs tatouages sont insérés, on parle de tatouage multiple. Pour assurer la sécurité des systèmes de tatouage, le principe des clés est fondamental. L’un des points communs existant avec la cryptographie, selon le principe de Kerckhoff , est « qu’un bon système de dissimulation d’information sous-entend la divulgation de la technique de dissimulation elle-même » . En effet,la sécurité repose entièrement sur le caractère secret de la clé.
Les types de tatouage numérique
La cryptographie et la dissimulation d’information par tatouage traitent toutes deux de la protection de l’information, mais qui se diffère par leurs objectifs premiers. La cryptographie offre des outils permettant d’assurer la confidentialité, l’intégrité ou encore l’authentification. La dissimulation d’information a, quant à elle, pour objectif de cacher un message utile dans un message de couverture, également appelé message hôte. Selon le contexte, on distingue :
− La stéganographie : il doit être impossible de distinguer si le message de couverture contient un message utile ou non, la présence du message est insoupçonnable ;
− Le tatouage : le message utile peut être lié à l’identité de l’ayant droit du document de couverture, et doit donc rester présent même si celui-ci subit des modifications préservant sa sémantique ;
− Le fingerprinting : lorsqu’un document est cédé à un nouvel acquéreur, il est préalablement marqué d’un nouveau message utile. Ceci permet de tracer les fraudes.
Chaque utilisateur authentifié reçoit sa propre copie du document original qui contient une empreinte l’identifiant. Ainsi, lorsqu’une copie illégale est découverte, la lecture de l’empreinte indique la source de la fuite. Chaque copie du document original contient une information différente, relative à son utilisateur, rendant alors chaque document tatoué différent.
Technique de stéganographie par LSB
La technique de base, dite LSB pour Least Significant Bit, est très simple. Dans le cas d’une image, elle consiste à modifier le bit de poids faible des pixels codant l’image. Une image numérique est une suite de points, que l’on appelle pixels, et dont on code la couleur à l’aide d’un triplet d’octets. Chaque octet du triplet appartient à [0,255] peut être modifié de +/- 1 sans que la teinte du pixel ne soit visuellement altérée. C’est ce que l’on fait en modifiant le bit de poids faible de l’octet. Exemple : Prenons les trois pixels suivants [6]:
{10110101, 11101010, 10010101},
{11101010, 10110101, 00100100},
{10110101, 11010101, 10101010}
On va cacher le caractère ‘x’ représenté par 88 dans le système ASCII. Le caractère ‘x’ a la suite 01011000 comme représentation binaire. Alors, les trois pixels précédents seront modifiés par substitution du LSB
{10110100, 11101011, 10010100},
{11101011, 10110101, 00100100},
{10110100, 11010100, 10101010}
Formats de compression vidéo
Depuis quelques années, le développement de la compression et des équipements de traitements vidéo ont permis à l’ère digitale de s’épanouir, et de remplacer progressivement l’ère analogique. Le but de développer les formats de compression et les traitements de la vidéo en général, est d’en optimiser le contenu afin d’en réduire l’espace de stockage, tout en maintenant une excellente qualité. Ce critère de qualité, qui a motivé l’expansion des recherches dans le domaine de l’évaluation de la qualité des vidéos, sera abordé afin de mettre en relation le tatouage, et les considérations perceptives étudiées. Le but d’un système de compression est d’éliminer les redondances spatio-temporelles d’un médium. Dans le monde analogique, ces redondances sont exploitées via le codage de la couleur, basé sur la vision et les techniques d’entrelacement. Le monde numérique permet quant à lui d’utiliser de nouvelles méthodes, présentées en section (3.1.2.2). Le codage de la couleur consiste à déterminer un espace qui se rapproche au mieux des caractéristiques de la vision humaine. De nombreux standards vidéo, tels que le standard PAL, NTSC, ou MPEG introduisent un modèle du système visuel humain pour traiter la couleur.[13][19]
Principes élémentaires du codage de la couleur Afin d’exploiter l’aspect de la vision humaine, les couleurs primaires Rouge, Vert et Bleu (RVB) sont rarement utilisées directement pour le codage ; à la place, on utilise couramment des systèmes de couleurs où les signaux correspondent à des différences, qui se rapprochent du modèle des couleurs opposées proposé par Hering dès 1875. En vidéo, l’espace résultant de ces considérations est souvent l’espace YUV (ou YCBCR), où Y dénote la luminance, U (ou CB) la différence entre la couleur primaire bleue et la luminance, et V (ou CR) la différence entre la couleur primaire rouge et la luminance. La faible acuité à la couleur permet une légère réduction du signal de « difference color ».
La compression vidéo La bande passante disponible pour la diffusion de la télévision numérique et ses applications est très limitée. Ce qui a donné naissance à une réelle motivation de développer de nouvelles technologies de compression afin de pallier à ce problème. Le standard de compression MPEG-2 est à ce jour l’un des systèmes le plus utilisé au monde. Si un codec permet de diminuer le coût de codage, et donc la bande passante utile, il doit répondre à un certain nombre d’exigences :
− Accès aléatoire dans la séquence décodée ;
− Possibilité de compresser l’information dans plusieurs formats d’image ;
− Possibilité d’avoir un débit allant jusqu’à 80 Mbit/s.
La plupart des codecs de compression vidéo sont basés sur des transformées telles que la DCT (Discrete Cosine Transform), la DWT (Discrete Wavelet Transform), ou encore la transformation fractale. L’architecture d’un codec est généralement composée des étapes suivantes :
Etapes Signification : La transformation pour faciliter l’exploitation des propriétés statistiques et de la redondance psychovisuelle, les images sont transformées dans un domaine où les bandes de fréquences correspondent au mieux à la sensibilité de l’appareil visuel humain, afin de pouvoir les distinguer plus aisément. Cela est réalisé par exemple par la DCT ou encore par la DWT La quantification après la transformation, la précision numérique des coefficients transformés est réduite, afin de diminuer le nombre de bits du flux compressé. Le degré de quantification appliqué aux coefficients est généralement déterminé par la visibilité des distorsions résultantes. Les hautes fréquences peuvent être plus fortement quantifiées que les basses fréquences. L’étape de quantification est responsable de la perte d’information Le codage une fois les données quantifiées en un ensemble fini de valeurs, elles peuvent être encodées en exploitant la redondance entre les coefficients. Pour cela, la technique couramment utilisée est le codage entropique(comme le codage de Huffman ou le codage arithmétique). Le codage entropique se base sur la probabilité d’apparition des symboles. L’une des clefs du codage vidéo est l’exploitation de la redondance qui existe entre les images successives. Ainsi, plutôt que de coder image par image, on code la différence entre les images successives et on réalise des estimations de mouvement. Il existe de nombreux codecs vidéo, comme : MPEG1, MPEG2, MPEG4-AVC (H264), les codeurs de l’avenir (codeurs par ondelettes). Voyons en particulier quelques détails concernant le codec MPEG4 qui est utilisé dans la dernière partie de ce mémoire. L’un des principaux objectifs de cette norme est de rendre interactifs, suivant les souhaits de l’utilisateur, les objets des scènes vidéo. Cette interaction est limitée aux différents scénarios possibles. La conception de cette norme se base sur des objets qui représentent le contenu sonore et vidéo. Ces différents objets, issus de plusieurs scènes différentes, peuvent être recombinés pour former des objets plus complexes. Cette norme organise les objets de façon hiérarchique : le niveau le plus bas est constitué des objets dit « primitifs » comme par exemple les images fixes, les objets vidéo et audio. Ces objets peuvent être utilisés pour représenter des scènes 2D ou 3D. Ces derniers, grâce à des transformations appropriées, peuvent être placés n’importe où dans une scène vidéo quelle qu’elle soit. [19]
Préfiltrage de la marque
Un grand nombre d’algorithme de marquage fonctionnent sous des hypothèses statistiques concernant le signal source. Afin de rendre ces hypothèses aussi viables que possibles durant la phase d’extraction, l’image marquée est alors filtrée avant de débuter l’extraction du message. Le maximum de corrélation de phase pour la réorientation et le redimensionnement est un bon exemple de ce procédé. Afin de surmonter aisément les attaques géométriques, telles que les rotations ou les zooms, une estimation a priori de l’attaque (basée sur des transformations géométriques) doit être réalisée, afin de pouvoir appliquer la transformation inverse. L’avantage de cette technique apparaît dans la non restriction de l’espace dans lequel la marque doit être insérée (un espace invariant peut être très petit). [19]
Les différents algorithmes de tatouage vidéo
Nous allons, dans cette section, exposer quelques approches utilisées en tatouage vidéo. La marque peut être insérée dans différents espaces. Il peut s’agir d’un domaine spatial, d’un domaine transformé, ou encore du domaine temporel. Le domaine spatial présente l’avantage d’être peu coûteux en temps de calcul, puisqu’il n’est pas nécessaire de réaliser des transformations, mais son inconvénient est qu’il ne permet pas de gérer aisément l’invisibilité. En outre, les domaines transformés sont utilisés en tatouage lors de l’insertion du système de tatouage dans un processus de codage ou lors de l’insertion de la marque dans un flux compressé. Dans le tatouage vidéo, il est généralement proposé de distribuer la marque sur plusieurs images consécutives pour que le tatouage soit robuste. Comme on l’avait déjà mentionné, une vidéo est composée par des séquences d’images fixes et du son, ce qui induit que l’on peut utiliser soit les images fixes, soit le son pour insérer la marque. Le plus souvent, l’insertion se fait dans les images fixes.
|
Table des matières
REMERCIEMENTS
NOTATIONS
1.1 Minuscules latines
1.2 Majuscules latines
ABREVIATIONS
INTRODUCTION
CHAPITRE 1 GENERALITE SUR LE TATOUAGE NUMERIQUE
1.1 Historique
1.2 Présentation du tatouage numérique
1.3 Principe du tatouage numérique
1.4 Les types de tatouage numérique
1.5 La Stéganographie
1.5.1 Définition et Terminologie
1.5.2 Domaines d’utilisation de la stéganographie
1.6 Les techniques du tatouage numérique
1.6.1 Technique de stéganographie par LSB
1.7 Les contraintes du tatouage numérique
1.8 Les domaines d’application
1.8.1 Traçabilité dans un système commercial
1.8.2 Protection du droit d’auteur
1.8.3 Contrôle de diffusion audiovisuelle
1.8.4 Authentification et contrôle d’intégrité
1.8.5 Contrôle de l’utilisation de l’œuvre distribuée
1.8.6 Insertion d’un nouveau canal d’information
1.9 Les attaques
1.9.1 Diminution du signal
1.9.2 Attaques spécifiques
1.9.3 Attaques géométriques
1.10 Conclusion
CHAPITRE 2 ETAT DE L’ART DU TATOUAGE D’IMAGE ET DE SON
2.1 Etat de l’art du tatouage d’image
2.1.1 Conception d’une méthode de tatouage d’image
2.1.2 Principes d’insertion
2.1.3 Différentes méthodes de tatouage d’image
2.2 Etat de l’art sur le tatouage de son
2.2.1 Conception d’une méthode de tatouage audio
2.2.2 Différentes méthodes de tatouage audio
2.3 Conclusion
CHAPITRE 3 LES DIFFERENTES TECHNIQUES DE TATOUAGE VIDEO
3.1 Etat de l’art du tatouage vidéo
3.1.1 Introduction
3.1.2 Formats de compression vidéo
3.1.3 Les principes généraux du tatouage vidéo
3.2 Les différents algorithmes de tatouage vidéo
3.2.1 Techniques de tatouage vidéo provenant de schémas d’images fixes
3.3 Conclusion
CHAPITRE 4 ANALYSE COMPARATIVE DE DIFFERENTES TECHNIQUES
4.1 Choix des techniques à comparer
4.2 Evaluation de la distorsion
4.3 Extraction de la marque après simulation des attaques
4.3.1 Attaque par compression
4.3.2 Attaque par surmarquage
4.3.3 Attaque par translation
4.4 Conclusion
CONCLUSION GENERALE
ANNEXE 1 : FONCTIONS MATLAB UTILES
ANNEXE 2 : CODE MATLAB
BIBLIOGRAPHIE
FICHE DE RENSEIGNEMENTS
RESUME
ABSTRACT
Télécharger le rapport complet