Codage de source ciblé : Transmission sécurisée, détection

La première transmission analogique de données sur ondes radio a été réalisée à la fin du XIXème siècle (et attribuée à Tesla, Marconi, et Popov, qui ont tous revendiqué l’invention de la radio), mettant en pratique la théorie des ondes électromagnétiques développée par Maxwell en 1865 pour transporter de l’information entre deux antennes. Au début du XXème siècle apparaissent les premières techniques numériques, comme la conversion analogique-numérique (réalisant l’échantillonnage et la quantification de signaux continus, en associant un symbole discret à une plage de valeurs), et la modulation numérique (permettant de transmettre une information numérique sur des signaux analogiques, en associant une forme d’onde à chaque symbole discret). Ces deux techniques fondamentales permettent la transmission de signaux analogiques dans un milieu de propagation (par ex. des ondes radio dans l’air) à travers une interface numérique, améliorant les performances en termes de fiabilité et d’utilisation des ressources [133]. La première technique numérique, appelée pulse-code modulation (PCM), a été brevetée par Reeves en 1938. Les domaines émergents du traitement du signal et du filtrage fournissaient alors les outils-clés pour la conception d’appareils performants.

Parallèlement, le développement de la théorie de la mesure [16], mené entre autres par Borel, Lebesgue, et Radon, a donné un nouvel élan aux probabilités et aux statistiques. Celle-ci fournit en effet les éléments de base pour l’axiomatisation de la théorie des probabilités de Kolmogorov [79]. De nombreux modèles de processus (chaînes de Markov, etc.) furent alors proposés, de même que les outils essentiels à leur analyse, comme la théorie ergodique qui concerne le comportement asymptotique (lorsque le temps croît à l’infini, par ex.) des systèmes dynamiques [159]. D’autre part, les statisticiens y ont trouvé les outils fondamentaux pour l’inférence statistique moderne, permettant le développement des théories de la détection [87] et de l’estimation [86].

D’une manière générale, l’inférence statistique a pour but de prendre une décision à propos d’un système à partir d’une expérience. Cette expérience produit des échantillons de données, et la décision concerne le modèle aléatoire sous-jacent. Par exemple, l’estimation de paramètre a pour but de trouver les valeurs des paramètres du modèle qui expliquent le mieux les données observées ; la détection a pour but de décider entre plusieurs possibilités (les hypothèses), par ex. détecter une cible dans une région sous surveillance avec des signaux radar [142].

Stratégies ciblées

Considérant que la destination ne souhaite pas tellement obtenir les données, mais les utiliser, les stratégies ciblées (ou orientées) constituent une tendance prometteuse pour les technologies sans fil émergentes et futures. En concevant des sytèmes pour une application particulière et en assouplissant la structure en couches (par ex., en permettant les optimisations inter-couches – cross-layer), elles visent à améliorer les performances pour certaines classes de problèmes. Par exemple, la gestion de la qualité de service devrait être différente selon que la destination souhaite télécharger un fichier en entier ou suivre une retransmission télévisée en direct. Des finalités différentes devraient amener des manières tout aussi différentes de mesurer la qualité, et plus généralement les performances. Estimant que l’utilisation finale des données devrait être la principale préoccupation des systèmes de communication, plusieurs concepts ont récemment émergé, comme les réseaux «centrés sur le contenu » [36], le routage [145] ou les architectures [67] « orientés application ».

Il existe évidemment un compromis entre le débit et le niveau de distorsion autorisés, résumé par la fonction de débit-distorsion R(D), définie comme le plus petit débit permettant une reconstruction avec un niveau de distortion d’au plus D. De toute évidence, d peut être adaptée à une application particulière. Par exemple, de nombreuses mesures « perceptuelles » ont été proposées pour la compression audio, de manière à quantifier la qualité de la compression comme elle peut être ressentie par un utilisateur humain. Cependant, d’autres contextes sont difficiles à inclure dans la théorie débit-distorsion générale, principalement à cause de la structure du critère de distorsion ; celui-ci est la moyenne sur une séquence de distorsions mesurées symbole par symbole. De nouveaux résultats théoriques sont nécessaires dans ces cas-là. Dans cette thèse, nous considèrons les problèmes suivants :
• codage de source pour les transmissions sécurisées, et
• codage de source pour la détection.

Codage de source pour les transmissions sécurisées

Du fait que les ondes électromagnétiques se propagent librement, les communications sans fil sont particulièrement sensibles aux écoutes malveillantes. D’autre part, la nature aléatoire des sources d’information et des canaux de transmission peut être avantageusement utilisée pour fournir une sécurité supplémentaire. De manière à inclure de telles possibilités dans le cadre général des systèmes de communication [139], Shannon a défini la sécurité en termes d’information, dans laquelle le niveau de secret (la confidentialité) est mesuré via l’incertitude de l’espion – qui écoute la communication – à propos du message [140]. Cette approche repose uniquement sur les propriétés statistiques du système considéré. Elle assure donc une sécurité inconditionnelle, indépendamment des capacités (puissance de calcul, temps disponible, etc.) de l’espion. En particulier, les schémas de codage obtenus ne peuvent être cassés par force brute.

Codage de source pour la détection

Dans un problème de détection, un utilisateur souhaite identifier une situation (parmi plusieurs possibilités, appelées hypothèses), à partir de l’observation d’un certain signal. Dans le cas de deux hypothèses, H0 (dans un contexte de radar, la région sous surveillance est dégagée) et H1 (une cible est présente), il y a deux manières de prendre une décision erronée. Soit l’utilisateur décide que les échantillons observés proviennent de la distribution correspondant à l’hypothèse H1 alors que la vraie est H0 (fausse alarme), soit il décide H0 au lieu de H1 (manque). Les probabilités de ces deux événements, respectivement notées α et β, caractérisent les performances du détecteur (ou test). Ces deux grandeurs ne peuvent être maximisées simultanément ; il faut réaliser un compromis.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction
1.1 Préliminaires
1.2 Systèmes pratiques
1.3 Stratégies ciblées
1.3.1 Codage de source pour les transmissions sécurisées
1.3.2 Codage de source pour la détection
2 Codage de source à plusieurs terminaux sous contrainte de sécurité
2.1 Introduction
2.2 Codage de source avec perte sous contrainte de sécurité, avec information adjacente codée
2.2.1 Définitions
2.2.2 Borne intérieure
2.2.3 Borne extérieure
2.3 Démonstration du théorème 2.1 (Borne intérieure)
2.3.1 Encodage à Alice et Charlie
2.3.2 Décodage à Bob
2.3.3 Incertitude à Ève
2.3.4 Fin de la démonstration
2.4 Codage de source avec perte sous contrainte de sécurité, avec information adjacente non codée
2.4.1 Définitions
2.4.2 Caractérisation optimale
2.4.3 Caractérisation alternative
2.4.4 Cas particuliers
2.5 Compression sans perte distribuée sous contrainte de sécurité
2.5.1 Définitions
2.5.2 Caractérisation optimale
2.5.3 Caractérisation alternative
2.6 Exemples d’application
2.6.1 Sources gaussiennes avec information adjacente codée
2.6.2 Source binaire avec informations adjacentes CBE/CBS
2.7 Conclusion
3 Transmission sécurisée d’une source via un canal bruité, avec information adjacente aux récepteurs
3.1 Introduction
3.2 Définitions et borne extérieure générale
3.2.1 Définitions
3.2.2 Borne extérieure générale
3.3 Schéma numérique
3.3.1 Énoncé général
3.3.2 Schéma basé sur une séparation « opérationnelle »
3.3.3 Cas particuliers
3.4 Démonstration du théorème 3.2 (Schéma numérique)
3.4.1 Encodage
3.4.2 Décodage
3.4.3 Incertitude à Ève
3.4.4 Résumé des conditions suffisantes
3.4.5 Ajout d’un pré-canal
3.5 Transmission d’une source binaire avec informations adjacentes CBE/CBS via un canal wiretap de type II
3.5.1 Modèle
3.5.2 Performances de quelques schémas de codage
3.5.3 Contre-exemple à l’optimalité du théorème 3.2
3.6 Codage hybride
3.6.1 Énoncé général
3.6.2 Cas particuliers
3.7 Démonstration du théorème 3.8 (Schéma hybride)
3.7.1 Encodage
3.7.2 Décodage
3.7.3 Incertitude à Ève
3.7.4 Fin de la démonstration
3.8 Transmission d’une source binaire via un canal wiretap de type II (suite)
3.8.1 Codage hybride
3.8.2 Résultats numériques
3.9 Transmission d’une source gaussienne via un canal wiretap gaussien
3.9.1 Modèle
3.9.2 Codage hybride
3.9.3 Cas particulier : PY < PZ, PB → ∞
3.10 Conclusion
4 Conclusion

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *