ULB, technologie naturellement inscrite dans l’histoire de la radio

ULB, technologie naturellement inscrite dans l’histoire de la radio 

Depuis la fin du dix-neuvième siècle et les premières expérimentations de transmission d’ondes électromagnétiques conduites par Hertz, Tesla et Marconi, les communications sans-fil ont connu un essor rapide et particulièrement florissant, au point de s’afficher comme l’une des réussites industrielles les plus spectaculaires de l’histoire récente. Pendant des décennies, ce succès s’est très largement construit autour du développement de systèmes « bande-étroite » opérant sur des gammes de fréquence réduites. Dans un monde de la radio marqué par l’hégémonie écrasante du « monochromatique », une technologie des moins conventionnelles est longtemps demeurée confidentielle. Tour à tour désignée sous les vocables « bande de base » (baseband), « sans-porteuse » (carrier-free), « non-sinusoïdale » (non-sinusoidal), « impulsionnelle » (impulse), « temporelle » (time domain), « à large bande relative » (large-relative-bandwidth), la technologie « Ultra-Large Bande » (ULB) ou Ultra Wideband (UWB) s’impose depuis quelques années comme une solution radio incontournable en passe de pénétrer les marchés de masse.

Un tel plébiscite est bien évidemment imputable à une certaine maturité technologique, qui permet aujourd’hui mieux qu’hier, l’exploitation de signaux large bande aux qualités indéniables. Mais cet avènement trouve également des motivations historiques profondes. Nous verrons ici comment la technologie ULB s’inscrit de manière naturelle dans l’histoire de la radio et des communications sansfil ([1], [2]). L’inefficacité spectrale et l’imperfection des premiers récepteurs à modulation d’amplitude (AM pour Amplitude Modulation) apparus dès 1905, ont rapidement rendu impérieuse la nécessité de limiter les interférences entre émetteurs, et donc un partage en bonne intelligence des ressources spectrales entre utilisateurs. Dès 1912, les émissions radio furent réglementées en conséquence. On instaura par exemple l’attribution de licences et la différenciation des services selon la fréquence, conditionnant de manière durable la vision commune de la radio.

Mais en 1933 ([3]), pour lutter contre certaines formes de distorsion et de bruit affectant les modulations d’amplitude alors en vigueur, on découvrit les vertus de modulations plus « large bande » où la fréquence porteuse du signal transmis, plutôt que l‘amplitude, variait en fonction du signal utile modulant. C’est ainsi que la modulation de fréquence (FM, pour Frequency Modulation), tout en conférant une meilleure fidélité à la radiodiffusion, devait marquer un premier tournant historique dans la marche à l’Ultra-Large Bande.

Le second tournant majeur s’amorça dans les années 1940 avec la publication des premiers articles de C. Shannon qui qualifièrent d’ « efficaces » (« most efficient »), les communications « noyés dans le bruit » (« down in the noise »), préfigurant ainsi le célèbre « A Mathematical Theory of Communications » ([4]), et le résultat fondamental de la théorie de l’information selon lequel la capacité (exprimée comme un débit d’information par seconde) d’un canal de communication perturbé par l’addition de bruit est une fonction croissante de la bande ([5]). Ces observations étaient en réalité concomitantes avec les prémisses des techniques d’« étalement de spectre », pour lesquelles les signaux étaient intentionnellement étalés jusqu’à plusieurs fois leur bande d’information par l’utilisation de familles de codes spécifiques. Plusieurs utilisateurs pouvaient ainsi se différentier grâce à l’attribution de ces codes (CDMA pour Code Division Multiple Access) tout en occupant une même large bande spectrale. Avec l’amélioration de la performance des systèmes de transmission, on découvrait par là même une façon nouvelle de partager et de gérer la ressource spectrale .

Emergence de nouveaux besoins 

De nouveaux besoins en matière de localisation sont apparus ces dernières années. Ces besoins, qui concernent principalement les milieux indoor (l’intérieur des bâtiments), requièrent une précision et une qualité de service inégalées jusqu’alors (disponibilité, fiabilité, pérennité, autonomie, continuité…). Leur apparition coïncide d’ailleurs avec l’émergence de nombreux services et applications, dont l’efficacité est essentiellement tributaire des performances de localisation. Sans être exhaustif, on peut citer un certain nombre d’exemples représentatifs :

− Applications pour le piéton : services commerciaux topo-dépendants et proposition de services adaptés in situ, information et guidage des passants, aide à la mobilité des personnes les plus vulnérables…
− Applications aux télécommunications : gestion dynamique des réseaux, routage optimal, maillage fin des réseaux, amélioration de la couverture, économies d’énergie…
− Applications de sécurité et/ou d’urgence : localisation et surveillance des biens et des personnes dans les bâtiments et/ou les zones à risque, recherche institutionnelle ou opportuniste de victimes sur le théâtre de sinistres (incendies, tremblements de terre, avalanches…), identification, suivi opérationnel de militaires, guérilla urbaine, surveillance de prisonniers…
− Applications industrielles : logistique, télémétrie, robotique de production, gestion automatisée des stocks dans les entrepôts…
− Applications liées au transport : gestion de flottes de véhicules, guidage autoroutier adapté au trafic…
− Applications médicales : surveillance de certains paramètres physiologiques du patient, réseaux de capteurs sans fil, médecine moins intrusive et plus confortable, actes médicaux et/ou chirurgicaux assistés…
− Applications dans les domaines de la domotique et du multimedia : identification, services personnalisés, contrôle d’environnement, maison « intelligente »…
− Applications dans le secteur des loisirs : suivi du geste sportif, jeux interactifs, capture de mouvement, réalité virtuelle…

Non contents de délivrer des informations précises de localisation (positionnement absolu/relatif, poursuite…), les systèmes envisagés se doivent également d’être polyvalents. De très nombreuses applications sous-tendent en effet une capacité de ces systèmes à communiquer et/ou à relayer l’information. Ces exigences, relativement nouvelles, suggèrent la mise en œuvre de techniques de transmission radio hybrides performantes.

Insuffisance des systèmes conventionnels de radiolocalisation

A titre d’exemple, pour les systèmes de positionnement et de navigation par satellite, tels que le GPS (pour Global Positioning System) ou son futur concurrent européen GALILEO, un récepteur capte des signaux émanant d’au moins quatre satellites. Ces satellites sont dotés d’horloges atomiques et connaissent leur position a priori. La position du mobile est alors obtenue par triangulation, en évaluant les différences de temps de propagation des signaux émis par les satellites. Ces systèmes remplissent déjà des services fort utiles, mais leur utilisation est le plus souvent restreinte à des environnements permettant la réception directe des signaux satellites. Ceci exclut donc l’intérieur des bâtiments, ainsi que de nombreuses zones au tissu urbain dense (zones à « effet canyon ») ou plus généralement les zones obstruées (e.g. utilisation sous couvert forestier), pour lesquelles la visibilité vis-à-vis des satellites n’est plus assurée. D’autre part, les précisions atteintes demeurent encore insuffisantes. Classiquement, les systèmes de positionnement par satellite s’appuient sur des techniques de transmission à base d’étalement de spectre . Il est généralement possible de différencier des trajets séparés dans le temps d’au moins une fois le temps de base de la séquence d’étalement (temps chip). Dans le cas du GPS C/A-code par exemple, le temps chip ne permet de discerner que des trajets séparés de 1μs (ou de manière équivalente, une résolution spatiale de 300m). Des retards bien inférieurs entre trajets sont susceptibles d’être observés pour les types d’environnement considérés. Outre une précision temporelle médiocre, la résolution des multi-trajets peut alors s’avérer problématique pour de tels systèmes. Les systèmes GPS conventionnels autorisent donc à l’heure actuelle, selon une disponibilité de service sélective, des précisions de positionnement de l’ordre de 100m pour le domaine civil, et de 5-15m pour le domaine militaire dans 95% des cas. Les dernières évolutions différentielles (DGPS pour Differential GPS), telles que les systèmes SBAS (pour SatelliteBased Augmentation System) , doivent permettre quant à elles d’atteindre des précisions de 1-3m dans 95% des cas, en corrigeant la position obtenue par le GPS conventionnel à l’aide de données relayées par une ou plusieurs stations GPS terrestres fixes ([25]). Enfin, le prix souvent rédhibitoire des systèmes de positionnement par satellites constitue encore un obstacle majeur à leur mise en oeuvre pour des applications de masse.

Par ailleurs, afin d’exploiter à moindre coût l’infrastructure de réseaux pré-existants et déjà massivement déployés, un autre mode de radiolocalisation se fonde depuis quelques années sur les réseaux de type cellulaire, principalement les réseaux de téléphonie mobile à accès multiple ([26] à [29]). Il s’agit en particulier de tirer profit des liens GSM (for Global System for Mobile communications) ([30], [31]) ou UMTS (pour Universal Mobile Telecommunications System) ([32], [33]) entre un mobile et de multiples stations de base dont les positions sont connues a priori. Diverses stratégies et métriques de radiolocalisation, telles que l’Angle d’Arrivée (AOA pour Angle of Arrival), les approches temporelles fondées sur les temps d’arrivée ou différences de temps d’arrivée (TOA pour Time Of Arrival et TDOA pour Time Difference Of Arrival), la puissance du signal reçu (RSSI pour Received Signal Strenght Indicator) ou encore la combinaison de ces métriques, ont été envisagées. Aussi, un arsenal très conséquent d’algorithmes spécifiques de positionnement a également été proposé dans ce contexte. Ces algorithmes tendent principalement à limiter les effets de certains phénomènes de propagation très pénalisants pour la localisation en milieu urbain ou suburbain (situations de non-visibilité dites NLOS pour Non-Line Of Sight, évanouissements lents et rapides, etc…). Malgré tout, les précisions de positionnement atteintes ne semblent pas être inférieures à plusieurs dizaines de mètres dans les scénarios les plus optimistes. A titre d’exemple, la FCC a enjoint en octobre 2001 les opérateurs américains de téléphonie mobile de garantir une précision de positionnement des téléphones portables de 125m dans 67% des cas pour les appels d’urgence E-911 (pour Enhanced-911) ([34]). Cette dernière requête semble assez révélatrice des performances visées par de tels systèmes.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
I.1. ULB, technologie naturellement inscrite dans l’histoire de la radio
I.2. Emergence de nouveaux besoins
I.3. Insuffisance des systèmes conventionnels de radiolocalisation
I.4. Prédispositions des transmissions ULB pour la localisation
I.4.1. Résolution et précision temporelle
I.4.2. Pénétration des matériaux
I.4.3. Hybridation des fonctionnalités de localisation et de communication
I.5. Localisation ULB et standardisation
I.5.1. ULB haut-débit (HDR-UWB)
I.5.2. ULB bas-débit (LDR-UWB)
I.6. Problématique générale et thématiques liées
I.7. Références bibliographiques de l’Introduction
Chapitre 1 : Métriques, organisation du réseau et modes d’échange
1.1. Introduction
1.2. Métriques de radiolocalisation
1.2.1. Puissance reçue (RSSI)
1.2.2. Angles d’arrivée (AOA)
1.2.3. Temps d’arrivée (TOA)
1.2.4. Différences de temps d’arrivée (TDOA)
1.3. Métriques de radiolocalisation, topologie du réseau, et positionnement
1.3.1. Lien intuitif entre métriques temporelles et positionnement
1.3.2. Incidence de la topologie du réseau
1.3.2.1. Réseaux pourvus d’infrastructure
1.3.2.2. Réseaux ad hoc
1.3.2.2.1. Réseaux en étoile
1.3.2.2.2. Réseaux point-à-point
1.4. Modes d’échange autorisant la mesure des métriques temporelles de radiolocalisation
1.4.1. Protocoles pour la mesure des temps d’arrivée (TOA)
1.4.1.1. Protocole « aller-retour » (TWR-TOA)
1.4.1.1.1. Principe de base
1.4.1.1.2. Erreurs liées à la dérive des horloges et à la temporisation
1.4.1.1.3. Réduction des erreurs indépendantes de la couche physique
1.4.1.2. Protocole « aller-simple » (OWR-TOA)
1.4.1.2.1. Principe de base
1.4.1.2.2. Erreurs liées à la synchronisation et aux dérives d’horloge
1.4.2. Protocoles pour la mesure de différences de temps d’arrivée (TDOA)
1.4.2.1. Principe de base
1.4.2.2. Erreurs liées à la synchronisation et aux dérives d’horloge
1.5. Aménagement des protocoles de communication
1.5.1. Structure type des trames dans les réseaux personnels ULB
1.5.2. Exemple d’exploitation des intervalles de temps alloués aux communications point-àpoint
1.5.3. Impact de la précision temporelle de détection
1.6. Conclusion
1.7. Références bibliographiques du Chapitre 1
Chapitre 2 : Impact du canal de propagation ULB
2.1. Introduction
2.2. Propagation ULB multi-trajets à l’intérieur des bâtiments
2.2.1. Principales interactions électromagnétiques subies par la forme d’onde ULB
2.2.1.1. Transmissions
2.2.1.2. Réflexions
2.2.1.3. Diffractions
2.2.1.4. Commentaires sur l’impact des interactions
2.2.2. Modèles statistiques de canaux ULB à l’intérieur des bâtiments
2.2.2.1. Pertes de propagation
2.2.2.2. Profils multi-trajets
2.2.3. Configurations de canaux et scenarii de détection
2.2.4. Notion de biais
2.2.4.1. Biais et détection des trajets
2.2.4.2. Biais et positionnement
2.2.5. Modélisation de l’erreur liée au canal
2.2.5.1. Modélisation statique de l’erreur sur les distances estimées
2.2.5.1.1. Mixture de base
2.2.5.1.2. Espérance et variance du biais
2.2.5.1.3. Configurations des canaux
2.2.5.1.4. Réalisations réalistes et paramètres de modèle expérimentaux
2.2.5.2. Modélisation dynamique de l’erreur
2.2.5.2.1. Discrétisation de la valeur du biais et processus de « marche aléatoire »
2.2.5.2.2. Bruit de biais
2.2.5.2.3. Paramètres de modèle expérimentaux
2.3. Propagation ULB mono-trajet en milieu extérieur – L’exemple de l’environnement enneigé
2.3.1. Modèles de propagation ULB avec antennes d’émission ensevelies
2.3.1.1. Modèle de temps de vol
2.3.1.2. Pertes de propagation
2.3.1.3. Réalisations réalistes et paramètres de modèle expérimentaux
2.3.1.3.1. Exploitation de mesures ULB temporelles en milieux enneigés
2.3.1.3.2. Paramètres de modèle expérimentaux
2.3.2. Implications pour les systèmes de localisation ULB dans les environnements enneigés
2.3.2.1. Atténuation et sensibilité des dispositifs ULB
2.3.2.2. Mesure des temps d’arrivée et positionnement
2.4. Conclusion
2.5. Références bibliographiques du Chapitre 2
Chapitre 3 : Détection des impulsions ULB
3.1. Introduction
3.2. Techniques classiques de détection des impulsions dans un contexte d’estimation de temps d’arrivée
3.3. Cadre d’évaluation d’architectures ULB bas-coût et basse-complexité
3.3.1. Formulation du problème général de détection
3.3.2. Formes d’onde envisagées
3.3.3. Caractéristiques énergétiques des canaux envisagés
3.4. Architectures non-cohérentes à base de détection d’énergie
3.4.1. Principe de base
3.4.2. Performances de détection
3.4.2.1. Variable de décision
3.4.2.2. Détection manquée
3.4.2.3. Fausse alarme
3.5. Architecture cohérente à échantillonnage direct et quantification sur 1 bit
3.5.1. Principe
3.5.2. Performances de détection
3.5.2.1. Variable de décision
3.5.2.2. Détection manquée
3.5.2.3. Fausse alarme
3.6. Energie requise et portée
3.7. Conclusion
3.8. Références bibliographiques du Chapitre 3
Chapitre 4 : Positionnement ULB
Conclusion

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *