Les origines des télécommunications et des objets connectés

Les origines des télécommunications et des objets connectés

Des origines du besoin de télécommuniquer

L’une des principales caractéristiques de l’espèce humaine, à la différence de toute autre sur Terre, réside dans sa capacité à communiquer de façon poussée. Bien que la plupart des animaux communiquent entre eux, la quantité d’information échangée n’a aucune commune mesure avec la nôtre. Grâce à cette particularité, toute connaissance acquise par un individu est transmissible au reste de la population, et toute tâche à effectuer par le groupe est répartissable entre tous ses individus, permettant d’améliorer l’efficacité du groupe. Il s’agit de l’une des principales raisons ayant permis à l’humanité de se développer aussi vite. Les humains se sont assez rapidement rendu compte que, seul, un individu est relativement faible, mais en tant que groupe, grâce à la communication entre ses membres, peu de choses lui sont impossibles. Le langage a donc été perfectionné, ce qui a permis aux groupes d’humains de grandir et d’étendre leurs territoires. Cependant, à ce stade, les limites de la voix humaine se sont fait sentir : bien que sa vitesse de propagation soit relativement élevée, sa portée reste très faible. Une nouvelle problématique est alors apparue : comment maintenir la communication entre les individus malgré la distance ? La solution la plus évidente, et celle utilisée initialement, est d’utiliser des messagers, transportant physiquement l’information. Toutefois, même si cela permet de communiquer avec plusieurs entités à distance simultanément, le temps de propagation est très élevé. C’est en cherchant à apporter une réponse plus efficace à cette problématique qu’est né le domaine des télécommunications.

Les premiers systèmes de télécommunication

Les premiers systèmes de communication longue distance avaient tous un point commun : ils utilisaient la propagation de la lumière comme vecteur de transmission. La première mention de l’emploi d’un dispositif de télécommunication à longue distance remonte à la Grèce Antique, durant la Guerre de Troie, au XIIe siècle avant J.C., où l’annonce de la victoire est envoyée jusqu’à Argos dans le Péloponnèse, à 700km de distance. Cette communication est réalisée via des tours situées de lieu en lieu sur des points hauts, sur lesquelles étaient allumés un certain nombre de feux correspondant à un message particulier [2, 3].

L’autre type de système aussi utilisé depuis une époque reculée consistait à utiliser non pas directement les feux, mais la fumée qu’ils génèrent lorsque l’on y fait brûler certaines substances, comme de l’herbe ou du bois vert. Ce système était notamment employé par les Amérindiens bien avant l’arrivée des grands explorateurs. Ces systèmes, bien qu’accélérant fortement la propagation de l’information comportaient une limite majeure : la complexité du signal était trop faible pour pouvoir porter un message élaboré. Pour faire un parallèle avec la quantification actuelle de l’information numérique, les messages ne comportaient que quelques bits, moins d’un octet.

Les réseaux de télécommunication modernes

C’est pour repousser cette limite qu’un nouveau type de transmission de données vit le jour à la fin du XV IIIe siècle : le télégraphe de Chappe. Ce dispositif consistait en un enchaînement de tours relais disposées en hauteur de lieu en lieu, comme pour les dispositifs précédents. Chacune de ces tours comportaient un mat
sur lequel étaient accrochées trois pièces articulées pouvant prendre différentes positions, chacune de celles-ci correspondant à une information spécifique . L’avantage de ce système par rapport aux précédents est la possibilité d’utiliser un enchaînement de ces différentes positions afin de créer un message complexe, pouvant typiquement contenir jusqu’à l’équivalent de plusieurs centaines d’octets d’information [2]. Ce système présentait cependant encore un certain nombre de limitations. La plus importante est qu’il ne fonctionnait que le jour et par temps clair. De plus, le temps de transmission était assez important, à cause de la reformulation complète du message nécessaire à chaque relais. Enfin, la présence continue d’un opérateur dans chaque relai était indispensable, et le risque de défaillance humaine était donc constamment présent.

Au début du XIXe siècle, l’électricité fit son apparition [4], et avec elle s’ouvrit de nouvelles perspectives, notamment dans le domaine des télécommunications, en offrant un nouveau vecteur de transmission à l’information. C’est ainsi que le télégraphe de Morse vit le jour au milieu de ce siècle résolvant tous les problèmes précédemment cités du télégraphe de Chappe [2]. La taille et la complexité des messages restaient les mêmes que pour ce dernier, mais la transmission devenait quasi instantanée. Quelques décennies plus tard, en 1880, arrivait le téléphone, extension du télégraphe à la voix, avec un débit et une complexité de l’information jamais atteint auparavant. Il restait encore toutefois quelques limitations : le besoin d’opérateurs pour mettre en communication les utilisateurs en reliant leurs lignes respectives, et la nécessité d’installer d’importantes infrastructures sous la forme de milliers de kilomètres de lignes.

Au début du XXe siècle, la première transmission radio longue distance fut réalisée par Guglielmo Marconi entre le Canada et l’Angleterre. Le besoin d’infrastructure se retrouvait donc fortement réduit, se limitant à des antennes ponctuelles, permettant de déployer un réseau de grande envergure bien plus rapidement et à moindre coût. Ainsi la radio se répandit à grande échelle à parti des années 1920, rejointe dans les années 1930 par la télévision. Désormais, le débit d’information était suffisant pour transmettre à la fois du son et de l’image en temps réel [2].

Le développement de la téléphonie mobile

Désormais, tous les éléments étaient réunis pour les débuts de la téléphonie mobile, ou 0G, qui apparut à la fin des années 1940. Le dispositif nécessaire était effectivement transportable, mais son encombrement et son besoin en énergie le rendait dépendant d’un élément externe : l’automobile. De plus, une fréquence donnée ne pouvait supporter qu’une seule communication à la fois, et chaque cellule couvrant le territoire n’était déservie que par une unique station de base de forte puissance, n’autorisant pas les déplacements de l’une à l’autre au cours d’une communication [2, 5]. Ce n’est que dans les années 1970 qu’arrivent les premiers téléphones réellement portables, entièrement autonomes et tenant dans la main (bien que restant assez lourds et encombrants). A la fin des années 1970 arrive la 1G, offrant des réseaux cellulaires permettant un déplacement d’une cellule à l’autre, ou mécanisme de handover. Avec l’apparition de la 2G au début des années 1990, les portables s’allègent et adoptent un facteur de forme proche de celui actuel, les débits augmentent, s’élevant à environ 10kb/s, et il devient possible de transmettre des messages textuels en plus de la voix [6]. Vient ensuite la 3G au début des années 2000, qui améliore encore les débits de transmission, les multipliant environ par 100, et offre désormais l’accès à Internet. Avec l’arrivée de la 4G au début des années 2010, les débits sont une nouvelle fois multipliés par 100, atteignant les 100Mb/s.

Au cours de toutes ces évolutions, on peut voir que l’accent a été principalement mis sur l’augmentation du débit disponible pour chaque terminal plus que sur le nombre de terminaux pouvant être géré par le réseau. En effet, entre l’arrivée de la 2G et celle de la 4G, les débits ont été multipliés par environ 10 000, tandis que le nombre d’utilisateurs a été multiplié par 200 dans le même temps en France [7].

L’arrivée des objets connectés et la 5G

Cependant, entre l’arrivée de la 3G et la 4G, un nouveau concept a fait son apparition au milieu des années 2000 : les objets connectés [8]. On entend par là des objets ayant la capacité de communiquer en réseau, généralement via liaison radio, reliés à Internet ou non, et voués à être présents en grands nombres. Bien qu’assez peu adoptés les premières années, les objets connectés voient leur nombre entamer une croissance fulgurante à la fin des années 2000, bien plus rapide que celle de tous les autres types d’appareils reliés à Internet, comme les ordinateurs ou les smartphones. On attend à l’heure actuelle environ 75 milliards d’objets connectés d’ici 2025 [9]. Les objets connectés ont des besoins en connectivité beaucoup plus variés que ceux des appareils connectés classiques, parfois même totalement opposés, à savoir aucun besoin d’un débit important, mais la nécessité d’une prise en charge par le réseau d’un très grand nombre d’entre eux, tandis que les ordinateurs et smartphones ont besoin d’un fort débit, mais sont nettement moins nombreux à souhaiter se connecter au réseau. Le modèle d’évolution des télécommunications sans fil jusqu’à présent, à savoir, forte augmentation du débit disponible pour chaque utilisateur, et légère augmentation du nombre maximal d’utilisateurs n’est donc plus viable, car ce serait laisser de côté les objets connectés. C’est pourquoi la nouvelle norme en cours de déploiement depuis la fin des années 2010, la 5G, offrira, entre autres, à la fois des débits multipliés par 100 par rapport à la 4G de base, et un nombre de terminaux connectés simultanément multiplié par 100 [10].

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
1 Les origines des télécommunications et des objets connectés
1.1 Des origines du besoin de télécommuniquer
1.2 Les premiers systèmes de télécommunication
1.3 Les réseaux de télécommunication modernes
1.4 Le développement de la téléphonie mobile
1.5 L’arrivée des objets connectés et la 5G
1.6 Bilan
2 De l’imprévisibilité du protocole d’une couche sachant ses couches inférieures
2.1 Constitution d’un échantillon de protocoles
2.2 Prévisibilité du protocole de la couche liaison de données sachant celui de la couche physique
3 Problématique, famille d’adaptabilité choisie et état de l’art
3.1 Problématique
3.2 Choix du type d’adaptabilité
3.3 État de l’art des systèmes d’établissement automatique de communication avec un protocole inconnu
4 Démarche, orientation et organisation de la thèse
4.1 Démarche
4.2 Configuration d’étude de la thèse
4.3 Solution proposée
4.4 Plan du manuscrit
1 Étude des algorithmes VDV, AC et LDA
1.1 Objectifs
1.2 Algorithme Variance of the Distribution of Variances (VDV)
1.2.1 Principe
1.2.2 Algorithme
1.2.3 Application à la configuration d’étude de la thèse
1.3 Algorithme d’Aho-Corasick (AC)
1.3.1 Principe
1.3.2 Algorithme
1.3.3 Application à la configuration d’étude de la thèse
1.4 Algorithme Latent Dirichlet Allocation (LDA)
1.4.1 Choix de la loi de Dirichlet
1.4.2 Modèle génératif
1.4.3 Inférence de Θ et Φ
1.4.4 Échantillonnage de Gibbs
1.4.5 Perplexité
1.4.6 Algorithme
1.4.7 Application à la configuration d’étude de la thèse
1.5 Conclusion
2 Simulations comparatives des algorithmes VDV, AC et LDA
2.1 Modèle de simulation
2.1.1 Génération de la trace liaison de données
2.1.2 Analyse de la trace liaison de données
2.1.3 Calcul des performances et comparaison
2.2 Déroulement des simulations
2.3 Simulations de l’algorithme VDV
2.3.1 Paramètres
2.3.2 Influence de la longueur maximale des séquences recherchées
2.3.3 Influence du nombre de flux générés
2.3.4 Influence du seuil de filtrage des séquences
2.4 Simulations de l’algorithme AC
2.4.1 Paramètres
2.4.2 Influence de la longueur maximale des séquences recherchées
2.4.3 Influence du seuil de filtrage des séquences
2.4.4 Influence du seuil de fusion des séquences
2.5 Simulations de l’algorithme LDA
2.5.1 Paramètres
2.5.2 Influence de la longueur maximale des séquences recherchées
2.5.3 Influence du nombre de mots-clés recherchés
2.5.4 Influence du gradient maximal de perplexité avant arrêt de l’échantillonneur de Gibbs
2.5.5 Influence du gradient maximal de probabilité pour la sélection des n-grams
2.5.6 Influence du paramètre ’alpha’ de la distribution des mots-clés
2.5.7 Influence du paramètre ’bêta’ de la distribution des n-grams
2.6 Comparaison des performances des algorithmes et conclusion
2.6.1 Paramètres des simulations
2.6.2 Discussion des résultats de la comparaison
2.7 Conclusion
3 Proposition d’un nouveau modèle : BaNet3F
3.1 Réseaux Bayésiens
3.1.1 Principes fondamentaux et représentation des réseaux Bayésiens
3.1.2 Inférence exacte dans un réseau Bayésien
3.1.3 Inférence de Viterbi dans un réseau Bayésien
3.1.4 Apprentissage de paramètres dans les réseaux Bayésiens avec l’algorithme Expectation-Maximization (EM)
3.2 Réseaux Bayésiens dynamiques
3.2.1 Principes fondamentaux et représentation des réseaux Bayésiens dynamiques
3.2.2 Inférence exacte dans un réseau Bayésien dynamique
3.2.3 Inférence de Viterbi dans un réseau Bayésien dynamique
3.2.4 Apprentissage dans les réseaux Bayésiens dynamiques avec l’algorithme Expectation-Maximization (EM)
3.3 Modèle proposé : BaNet3F
3.3.1 Principe fondamental et vue générale du modèle
3.3.2 Réseau Bayésien employé
3.3.3 Apprentissage des paramètres à l’aide de l’EM
3.3.4 Détermination du découpage le plus probable à l’aide de l’algorithme AMBV
3.3.5 Validation du découpage à l’aide de sa probabilité
3.4 Conclusion
4 Performances du modèle BaNet3F sur traces générées et traces réelles
4.1 Paramètres et métriques
4.1.1 Paramètres
4.1.2 Métriques
4.2 Performances obtenues avec les traces générées
4.2.1 Générateur de traces
4.2.2 Cadre des simulations
4.2.3 Influence du nombre maximal de champs par trame sur les performances de BaNet3F
4.2.4 Influence du seuil relatif de validation du découpage sur les performances de BaNet3F
4.2.5 Influence du nombre maximal d’unités élémentaires considérées simultanément sur les performances de BaNet3F
4.2.6 Bilan
4.3 Performances obtenues avec les traces réelles
4.3.1 Caractéristiques de la trace et cadre des simulations
4.3.2 Influence du nombre maximal de valeurs différentes de l’observation sur les performances de BaNet3F
4.3.3 Influence du nombre de valeurs des champs sur les performances de BaNet3F
4.3.4 Influence du nombre maximal de champs par trame sur les performances de BaNet3F
4.3.5 Influence du seuil relatif de validation du découpage sur les performances de BaNet3F
4.3.6 Influence du nombre maximal d’unités élémentaires considérées simultanément sur les performances de BaNet3F
4.3.7 Bilan
Conclusion

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *