Historique des télécommunications

L’histoire des télécommunications est marquée par l’augmentation coordonnée des performances (débit de transmission, robustesse, portée, efficacité énergétique…) et de la complexité des systèmes utilisés. L’essor des systèmes à entrées et sorties multiples (multiple-input multiple-output, MIMO) ne déroge pas à cette règle. En effet, leur inclusion dans de nombreux standards modernes (WiFi, WiMAX, 3G, 4G, 5G) a permis des améliorations de performances considérables mais a également complexifié les algorithmes de réception. Ainsi, ces systèmes requièrent des détecteurs pour compenser les évanouissements et les bruits induits par le canal de transmission ainsi que pour séparer les signaux provenant des différentes antennes émettrices.

Une grande diversité existe dans les stratégies de détection proposées par la littérature. La majorité d’entre elles exploitent les connaissances que le récepteur possède à travers des modèles et l’estimation de l’état du canal. Cependant, ces approches peuvent être mises en défaut notamment lorsque le canal s’éloigne du modèle adopté, lorsqu’il est trop bruité ou mal estimé. Les métaheuristiques bio-inspirées sont connues pour éviter ces écueils en explorant davantage l’espace des possibles mais cela implique également un surcoût de complexité important.

Historique des télécommunications

Dans son livre fondateur, Claude Shannon définit “le problème fondamental de la communication [par le fait] de reproduire exactement ou approximativement en un point, un message choisi en un autre point” [10]. En ce sens, la communication balaie un spectre très large, depuis la parole et le langage des signes jusqu’aux pages de l’internet moderne pouvant être affichées quasiment partout. Lorsque les points d’émission et de réception sont suffisamment éloignés, on parle alors de télécommunications et on impose classiquement une contrainte sur la latence. Cette section dresse un historique des systèmes de télécommunication afin de mettre en lumière les principaux objectifs qui ont guidé leur développement : augmentation de la portée, du débit et de la fiabilité, réduction de la latence, des coûts financiers et énergétiques.

Systèmes optiques avec intervention humaine 

Jusqu’au XVIIIème siècle, les télécommunications se basent sur la transmission de signaux optiques simples tels qu’un feu depuis un point surélevé ou des colonnes de fumées. Les signaux sont parfois répétés spatialement par l’observateur afin d’augmenter la portée générale du système. Toutes les variantes de ces systèmes se révèlent extrêmement coûteuses, surtout lorsque l’observateur doit relayer l’information. En effet, une personne attentive ainsi qu’un système de production de signal sont requis pour chaque dizaine de kilomètres à parcourir. De même, la latence est extrêmement grande en raison des interventions humaines à chaque répétition [11, chap. 8]. Enfin, ces systèmes transmettent souvent des informations très simples : une torche allumée permet de transmettre l’équivalent d’un bit d’information moderne comme la présence d’un ennemi. Les versions les plus complexes, tels que les signaux de fumée des peuples pré-colombiens, peuvent transmettre des messages un peu plus élaborés en produisant une série de signaux tout-ou-rien (présence ou absence de fumée) formant des mots dans un dictionnaire simple (“attention”, “tout va bien”, “au secours”, etc). Dans tous les cas, les débits d’information de ces systèmes ne sont jamais élevés. Les systèmes modernes pourraient par exemple transmettre ces informations avec un débit binaire de quelques bits par minute. A la fin du XVIIIème siècle et au début du siècle suivant, les télégraphes de Chappe réduisent la latence en permettant de transmettre un message à plusieurs centaines de kilomètres en quelques heures mais le débit ne dépasse toujours pas le bit par seconde [11, 12].

Télécommunications câblées électriques

Le développement de l’électricité au XIXème siècle permet l’essor du télégraphe électrique qui transmet des impulsions électriques dans un fil en cuivre. Ce dispositif, associé au code Morse, transmet pour la première fois une dizaine de bits modernes par seconde avec deux symboles par seconde sur un alphabet de 36 symboles (26 lettres et 10 chiffres). Moins d’un siècle plus tard, le téléphone analogique surpasse son prédécesseur en transmettant directement la voix. Outre le recours au câble coaxial qui améliore le canal de transmission, c’est bien le passage au signal analogique et l’introduction du multiplexage fréquentiel qui permettent cette augmentation de débit. Jusqu’alors, un canal de transmission était requis pour chaque message et le seul multiplexage possible était temporel. L’ajout d’un second domaine de multiplexage, la fréquence, permet aux câbles coaxiaux de servir jusqu’à 300 communications audios simultanées [13].

Essors des télécommunications sans-fil 

La modulation analogique et le multiplexage fréquentiel dans les câbles coaxiaux inspire également l’apparition des télécommunications sans-fil durant le XXème siècle. D’abord dédié à la diffusion des nouvelles et des programmes ludiques par la radio puis la télévision, les guerres mondiales accélèrent l’apparition d’appareils de plus en plus portatifs d’abord restreints aux usages militaires. La miniaturisation se poursuit durant l’après-guerre avec l’apparition des transistors modernes [14]. A cette période, les télécommunications sans-fil restent majoritairement analogiques malgré des avancées fondatrices comme la théorie de l’information de Claude Shannon [10], celle des codes correcteurs de Hamming [15] ou encore le fameux théorème de l’échantillonnage de Nyquist–Shannon [16, 17]. Il faudra attendre que les circuits imprimés, et avec eux les ordinateurs, prennent leur essor pour que le numérique devienne la norme dans les télécommunications sans-fil grand public.

Téléphonie mobile moderne

La téléphonie mobile utilise un réseau constitué de deux types d’intervenants : une station de base qui administre la cellule et un certain nombre de mobiles utilisateurs. La transmission est hertzienne entre les utilisateurs et la station de base puis elle devient filaire entre les stations servant la liaison. Les performances des réseaux mobiles sont donc liées à la fois à la capacité de liaison mais aussi à celle du réseau supportant les stations de base. L’essor des fibres optiques et les commutations de paquets sont des exemples de technologie ayant aidé au développement du réseau mobile bien qu’elles ne soient pas directement apparentes aux utilisateurs. Bien que les technologies les plus anciennes ne permettent pas de passer d’une cellule à l’autre au cours d’un appel, ce type de changement à la volée fait son apparition dès les années 80 permettant le déploiement des premiers réseaux mobiles au sens moderne. Par la suite, les nouvelles générations de standards mobiles s’enchaînent toutes les dizaines d’années augmentant significativement le débit et ajoutant des fonctionnalités nouvelles. Le SMS fait par exemple son apparition dans les années 90 lors de la deuxième génération (2G), les transferts multimédia et internet sont ajoutés vers 2007 avec la troisème génération (3G). Le standard long-term evolution (LTE) de la quatrième génération (4G) augmente encore les débits montants et descendants et améliore l’efficacité spectrale grâce à de nouvelles formes d’ondes, à de nouveaux codages de source et de canal ainsi qu’à des nouvelles techniques de multiplexage fréquentiel et spatial.

Une nouvelle dimension de multiplexage : l’espace

Longtemps vu comme un frein à des communications de qualité, la propagation multitrajet devient un atout avec la formalisation des systèmes à entrées et sorties multiples (multiple-input multiple-output, MIMO). Les premiers travaux théoriques de ce principe remontent aux années 70 mais c’est dans les années 90 que les premiers papiers et brevets décrivent des applications pratiques [18–21]. La fin des années 90 voit l’apparition des premiers prototypes fonctionnels de systèmes MIMO [22]. Le principe est assez simple : utiliser plusieurs antennes à l’émission et à la réception pour transmettre dans le même slot temps-fréquence et discriminer les flux de données à partir de considérations spatiales. L’espace devient alors une nouvelle dimension de multiplexage permettant une amélioration considérable de l’efficacité spectrale, du débit et de la qualité des liaisons. Les codages spatio temporels permettent par exemple de transmettre la même quantité d’information avec les mêmes ressources fréquentielles et temporelles de façon beaucoup plus résiliente. Le code d’Alamouti spécifiquement construit pour les systèmes 2×2 [23] a ouvert la voie à des extensions aux systèmes plus larges [24, 25]. Ces codes spatio-temporels orthogonaux sont à la base de transmissions MIMO très fiables. De plus, le multiplexage spatial peut aussi être utilisé pour augmenter le débit de transmission de données en transmettant simultanément plusieurs flux de données. Enfin, un mélange des deux régimes précédents peut permettre d’augmenter à la fois la fiabilité et le débit [26]. Les systèmes MIMO démontrent donc une bonne versatilité permettant de choisir un compromis entre fiabilité et débit adapté à l’application.

De nombreuses variantes du principe initial ont été proposées dans le sillage des premiers systèmes tel que le MIMO massif dans lequel le nombre d’antennes dépasse la centaine, le MIMO à plusieurs utilisateurs ou encore le MIMO coopératif qui exploite plusieurs stations de base simultanément. Cette technologie a été intégrée dans les standards mobiles dès la 3G ainsi que dans les standards WiMAX et Wi-Fi [27, 28].

Codage et décodage

Le codage de canal est une étape qui réduit l’influence des erreurs de transmission sur l’intégrité du message. Elle est théoriquement optionnelle mais la quasi-totalité des systèmes modernes l’implémentent. Pour réduire l’influence des erreurs, le décodeur exploite la redondance ajoutée dans le message émis pour localiser et corriger les erreurs. La fonction de l’encodeur est de prendre un message binaire et d’ajouter une redondance selon un procédé donné afin de produire un nouveau message binaire plus long mais contenant exactement la même quantité d’information. Ce procédé peut appliquer en continu de la redondance à un flux binaire ou bien protéger le message bloc par bloc. Comme pour la démodulation, deux types de décodeurs existent selon que la détection soit à sortie dure ou souple. Dans le cas d’une détection à sortie dure, le décodeur travaille sur le message binaire détecté et en corrige les erreurs selon un algorithme donné. Lorsque la détection est souple, les entrées du détecteur sont les LLR de chaque bit plutôt que le message binaire [41].

Code convolutif non récursif – Décodeur de Viterbi
Les codes convolutifs non récursifs ajoutent en continu des bits de redondance à un flux de bits d’information en le convoluant avec le polynôme générateur du code. La convolution implique que les codes convolutifs sont des codes à mémoire où tous les bits précédemment codés ont une influence sur la suite. Le décodage des codes convolutifs repose classiquement sur l’algorithme de Viterbi qui fournit des performances optimales tout en étant très parallélisable.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
1 Contexte, problématiques et hypothèses du manuscrit
1.1 Historique des télécommunications
1.1.1 Systèmes optiques avec intervention humaine
1.1.2 Télécommunications câblées électriques
1.1.3 Essors des télécommunications sans-fil
1.1.4 Téléphonie mobile moderne
1.1.5 Une nouvelle dimension de multiplexage : l’espace
1.2 Décomposition d’une liaison MIMO
1.2.1 Hypothèses générales et cas d’utilisation pratiques
1.2.2 Canal de transmission
1.2.3 Modulation et démodulation
1.2.4 Codage et décodage
1.2.5 Synthèse de la modélisation mathématique
1.3 État de l’art des détecteurs MIMO
1.3.1 Détecteur par maximum de vraisemblance
1.3.2 Détecteurs linéaires
1.3.3 Détecteurs à annulation des interférences
1.3.4 Détecteurs basés sur un parcours d’arborescence
1.3.5 Apprentissage par réseaux de neurones
1.3.6 Détecteurs bio-inspirés
1.3.7 Détecteurs géométriques
1.4 Synthèse de l’état de l’art et problématique des travaux
1.4.1 Synthèse des stratégies de détection
1.4.2 Différence entre le problème de détection théorique et celui résolu en pratique
1.4.3 Problématique et structure du manuscrit : de l’intérêt de l’exploration pour la détection MIMO
2 Étude d’un détecteur à parcours d’arborescence stochastique
2.1 Méthodes et critères d’évaluation
2.1.1 BER en fonction du SNR : la méthode de Monte Carlo
2.1.2 Évaluation de la complexité arithmétique
2.1.3 Analyse de Pareto
2.2 Vocabulaire du parcours d’arborescence
2.3 Un nouveau détecteur à parcours d’arborescence stochastique
2.3.1 De la métaheuristique bio-inspirée au parcours d’arborescence stochastique
2.3.2 Proposition d’un nouveau détecteur basé sur le FA
2.3.3 Synthèse du détecteur par parcours d’arborescence stochastique
2.4 Les références à parcours d’arborescence
2.4.1 Le parcours en largeur canonique : le K-best de [3]
2.4.2 Le parcours parallèle par métrique de [4]
2.5 Comparaison du parcours d’arborescence stochastique avec des références
2.5.1 Surcoût de complexité engendré par l’exploration
2.5.2 Comparaison des performances au sens de Pareto
2.6 Conclusion sur la détection par parcours d’arborescence stochastique
3 Diagnostic du détecteur géométrique historique
3.1 Préambule mathématique
3.1.1 Expression du modèle de transmission dans le domaine réel
3.1.2 Prétraitement par décomposition en valeurs singulières
3.1.3 Obtention de la pseudo-inverse de Moore-Penrose
3.2 La détection géométrique historique
3.2.1 Recherche générale : exploration géométrique
3.2.2 Recherche locale : exploitation
3.2.3 Positionnement du détecteur géométrique dans la taxonomie exploration/exploitation
3.3 Atouts et faiblesses de la version historique
3.3.1 Analyse de la complexité arithmétique
3.3.2 Performances de détection
3.3.3 Implémentabilité sur architecture matérielle
3.4 Synthèse sur la détection géométrique historique : une stratégie prometteuse et des défauts à améliorer
4 Améliorations, études et implémentation de la détection géométrique
CONCLUSION

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *