Évolution des protocoles de transport du point de vue de l’équité

Depuis sa création, l’Internet est devenu un composant central des communications dans le monde entier et ne cesse d’évoluer pour améliorer et proposer de nouveaux services aux utilisateurs. Ainsi, des technologies inédites sont apparues sur les réseaux au cours du temps. Ils ont permis l’augmentation considérable des débits avec le déploiement du réseau 4G ou encore la fibre optique jusqu’aux clients finaux. Ces deux exemples ont été deux des dernières évolutions majeures sur le réseau internet. Mais ces transformations continuent à se produire pour améliorer continuellement le réseau internet ; d’autres technologies plus performantes sont attendues dans les années à venir avec la 5G qui sera bientôt en cours de déploiement alors que la communauté de recherche commence déjà à aborder les problématiques pour le réseau 6G [1]. L’augmentation du débit sur le réseau n’est pas la seule évolution, d’autres services qui ne nécessitent pas un débit aussi important sont apparus. C’est particulièrement le cas des services de l’Internet of Things (IoT), qui multiplient de façon draconienne le nombre d’équipements connectés au réseau à faible débit, comme avec l’apparition de capteurs. Cela démontre une diversité importante des usages du réseau internet et nous informe que chaque service a des besoins différents. Ceci se traduit par une complexification de l’écosystème du réseau internet. En effet, les acteurs se multiplient sur le réseau tout en proposant de nouvelles solutions pour améliorer ses performances tout en avivant la concurrence entre eux. Dans ce contexte, la question de l’équité reste un point primordial pour un opérateur.

Chaque service a ses propres besoins

L’ensemble des utilisateurs évalue en permanence la qualité des prestations lorsqu’ils utilisent un service sur Internet. Pour optimiser la satisfaction de leurs utilisateurs, les acteurs de l’Internet cherchent à obtenir un débit plus important, une plus faible latence et un taux de perte inexistant. Pour mesurer le contentement des utilisateurs, les professionnels de l’Internet peuvent réaliser des mesures de Quality of Experience (QoE) [2], c’est-à-dire prendre en compte l’ensemble des caractéristiques objectives et subjectives afin de mesurer la satisfaction et la fidélisation des clients. Néanmoins, l’ensemble des acteurs de l’Internet n’a pas le même objectif en ce qui concerne la gestion de la QoE sur le réseau : certains acteurs comme les fournisseurs de services vont essayer de maximiser la QoE de leurs utilisateurs sans se soucier de leurs concurrents tandis que d’autres comme les opérateurs réseau cherchent à maximiser la QoE de chaque client, indépendamment des services.

Dans le but de maximiser la QoE, les différents services ont besoin d’obtenir des caractéristiques réseau précises afin de fonctionner et ainsi obtenir une expérience optimale pour les utilisateurs. Les différents acteurs de l’Internet ont la possibilité de prioriser certains flux, de façon à répartir au mieux les ressources réseau pour optimiser le transport des données de chaque flux. Ce concept est appelé la Quality of Service (QoS). Ainsi les politiques de QoS appliquées sur le réseau par les différents acteurs de l’Internet permettent d’offrir aux utilisateurs des débits et des temps de réponse différenciés par application. Par exemple, si nous considérons le visionnage d’une vidéo en streaming, la QoE peut être directement affectée par un des évènements suivants : le temps de démarrage de la vidéo, la qualité de la vidéo reçue et aussi la présence de phases de re buffering [3] (c’est-à-dire une interruption de la vidéo pendant son visionnage suite à la diminution du débit). Pour éviter ces situations, les acteurs de l’Internet ont la possibilité de pouvoir gérer les flux vidéos de façon différenciée dans le but de maximiser la QoE des utilisateurs. En effet, les acteurs de l’Internet cherchent à diminuer la latence, la gigue et le taux d’erreur lors de la transmission de la vidéo sur le réseau [4]. En ce qui concerne le téléchargement des pages web, c’est le temps d’affichage qui sera essentiel pour la satisfaction des clients. Les pages web ne représentent pas forcément de grande quantité de données à transmettre mais elles doivent être réalisées rapidement. Du point de vue de la QoS, la latence sera un critère important.

Ces exemples ne sont que quelques services proposés aux utilisateurs. Aujourd’hui, ils se diversifient de plus en plus sur le réseau et l’exigence des utilisateurs s’accroît, en particulier avec l’arrivée du réseau mobile 5G qui identifie trois axes majeurs pour fournir la QoS à l’ensemble des clients : une faible latence, un débit important et un nombre très important d’appareils à se connecter au réseau avec l’IoT [5].

Évolution des usages en terme de débit 

Les réseaux mobiles ont évolué au fil du temps afin d’améliorer la qualité de l’expérience des utilisateurs, notamment en terme de débit. Les applications à venir, par exemple la vidéo 4K, la réalité virtuelle, et bien d’autres, nécessitent des débits nettement supérieurs à ceux proposés aujourd’hui. Pour cela, les futures générations de réseaux mobiles s’engagent à fournir des débits plus élevés. En effet, la 5G vise des débits dix fois supérieurs à ceux de la 4G et par conséquent entraînera une amélioration de la QoE des utilisateurs [6].

Les opérateurs s’engagent à réaliser des investissements très importants afin de pouvoir proposer une nouvelle infrastructure de réseau mobile, nommée la 5G. Pour proposer ces nouveaux services aux utilisateurs, ils promettent le déploiement de nouveaux équipements réseaux sur l’ensemble du territoire. Mais la performance de leurs réseaux ne dépend pas uniquement des infrastructures réseau déployées. Entre autres, les protocoles de transport réseau ont un impact significatif sur le débit des utilisateurs, car ce sont ces protocoles qui définissent le débit des flux de chaque service sur le réseau. Aujourd’hui avec les nouveaux protocoles qui sont déployés, les flux parviennent généralement à obtenir l’intégralité de la bande passante disponible sur le réseau. Mais le problème de pouvoir vérifier que les ressources réseau, dans notre cas la bande passante, sont partagées correctement entre les divers flux et donc sur les différents services reste aujourd’hui une question ouverte.

La congestion réseau 

La congestion réseau correspond aux points de saturation du réseau, c’est-à-dire qu’un équipement réseau reçoit plus de données à transmettre qu’il ne peut le faire. Lorsque la congestion est trop importante, des pertes de paquets peuvent arriver et les données de l’utilisateur seront perdues, charge à l’émetteur de les retransmettre. Ces pertes de paquets peuvent alors avoir un impact significatif sur la QoE de l’utilisateur. Ces points de saturation peuvent se situer à différents emplacements sur le réseau :

— Réseau d’accès fixe : Que ce soit les particuliers ou les professionnels, ils peuvent avoir un point de congestion dans les équipements réseau qu’ils possèdent. En effet, aujourd’hui les débits dans les réseaux fixes se sont grandement améliorés pour atteindre jusqu’à 10Gbit/s avec une seule connexion en fibre optique. Généralement, ces améliorations ont déplacé les points de saturation du réseau d’accès de l’opérateur à l’équipement des utilisateurs. Lorsque l’usager est connecté sur un réseau WiFi, le point de saturation est déplacé à l’interface fibre/WiFi. En effet, le réseau WiFi actuel peut supporter au maximum 54Mbit/s. Les différentes technologies déployées chez un particulier ou par un administrateur réseau dans son entreprise peuvent avoir un impact direct sur le débit d’un utilisateur ou d’une application et donc une influence sur l’équité.

— Réseau d’accès mobile : Le déploiement des équipements au niveau des réseaux d’accès est particulièrement coûteux pour les opérateurs et nécessite des investissements très importants. C’est pourquoi les réseaux sont dimensionnés pour les besoins des utilisateurs. Si une demande ponctuelle est plus importante alors une congestion se créera dans le réseau.

— Points de peering : Les points de peering sont les points d’interconnexion entre différents acteurs de l’Internet (opérateurs, fournisseurs de services…). Pour que de telles connexions existent, des accords commerciaux sont trouvés entre ces différents acteurs ; même si elles sont peu coûteuses, les débits y sont plafonnés. Si trop de données sont à transmettre alors un point de congestion peut se créer dans le réseau.

Dans cette thèse nous nous sommes uniquement concentré sur les deux points de saturation suivants : le réseau d’accès mobile (lorsque plusieurs flux d’un même utilisateur sont en concurrence entre-eux) et fixe (lorsque plusieurs utilisateurs d’une même point d’accès sont en concurrence entre-eux). Il est important de noter dès maintenant que l’équité n’est pas gérée de la même façon dans les deux types de réseau d’accès. Sur les réseaux d’accès fixe (Ethernet et WiFi) les queuing policies sont des First In First Out (FIFO), c’est-à-dire que les paquets des flux sont traités par ordre d’arrivée. En cas de congestion, aucun des flux n’est priorisé par rapport aux autres. Tandis que sur les réseaux mobiles, ce sont typiquement des algorithmes de proportional fairness qui sont utilisés . En ce qui concerne l’équité au niveau des points de peering, elle n’a pas été traitée dans cette thèse et elle nécessiterait de nouvelles mesures dans des conditions complètement différentes de celles réalisées dans cette thèse.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction
1.1 Introduction générale
1.1.1 Chaque service a ses propres besoins
1.1.2 Évolution des usages en terme de débit
1.1.3 La congestion réseau
1.1.4 Les protocoles de transport
1.1.5 Et la neutralité du net ?
1.2 Problématiques
1.3 Organisation de la thèse
2 Protocoles, Algorithmes de Contrôle de Congestion et Équité : État de l’art
2.1 Évolution des protocoles de transport : de TCP à QUIC
2.1.1 Protocoles de transport
2.1.2 Protocole de transport fiable : TCP
2.1.3 Limitation du protocole de transport : TCP
2.1.4 Nouveau protocole : QUIC
2.2 Évolution des algorithmes de contrôle de congestion
2.2.1 Introduction des algorithmes de contrôle de connexion : RENO
2.2.2 Amélioration de RENO : newRENO
2.2.3 L’option Selective Acknowledgments (SACK)
2.2.4 Augmentation des débits des réseaux : CUBIC
2.2.5 Une nouvelle option pour la sortie du slow-start : l’hystart
2.2.6 Changement de concept des algorithmes de contrôle de congestion : BBR
2.2.7 Autre concept pour modifier le principe AIMD : PCC
2.2.8 Bilan sur les modifications des algorithmes de contrôle de congestion
2.3 Qualité de service
2.3.1 Classification des services
2.3.2 Équité réseau
2.3.3 Métrique
2.3.4 Bilan sur l’équité et les métriques
2.4 Mesure d’équité des algorithmes et des protocoles de transport
2.4.1 L’équité entre les algorithmes de contrôle de congestion
2.4.2 Fairness et performances des protocoles de transport
2.4.3 Phénomènes impactant les performances d’un protocole de transport
2.5 Bilan
2.6 Problématiques identifiées
3 Plateforme de simulation de réseau fixe et mobile
3.1 Architecture de la plateforme de tests
3.1.1 Implémentation des clients
3.1.2 Implémentation du réseau
3.1.3 Implémentation des serveurs
3.2 Mesures possible à partir de la plateforme
3.2.1 Bilan sur la plateforme de tests
4 Évaluation de l’équité : Métrique
4.1 Le besoin d’évaluer l’équité durant toute une session
4.2 Session Fairness Assessment
4.2.1 Définition de la méthode de mesure de l’équité sur une session
4.2.2 Application de la métrique sur des exemples
4.2.3 Caractérisation de l’évolution de l’indice d’équité avec la méthode SFA
4.3 Weighted Session Fairness Assessment
4.3.1 Besoin de pondérer une partie de la période de concurrence
4.3.2 Définition de la métrique
4.3.3 Application de la métrique sur des exemples
4.4 Bilan des méthodes de mesure de l’équité
5 Équité des protocoles de transport : QUIC versus TCP
5.1 Analyse des implémentations de CUBIC dans les protocoles TCP et QUIC
5.1.1 Slow-start
5.1.2 Diminution du débit lors d’une perte de paquet sans timeout
5.1.3 Congestion avoidance : augmentation du débit
5.2 Scénarios de tests
5.3 Analyse de l’impact sur l’équité du paramètre hystart
5.3.1 Réseau à débit variable
5.3.2 Réseau à débit constant
5.4 Analyse de l’impact sur l’équité du nombre de connexions TCP émulées dans QUIC
5.4.1 Réseau à débit variable
5.4.2 Réseau à débit constant
5.5 Analyse de l’impact sur l’équité de la limitation de la taille de la fenêtre de congestion dans QUIC
5.6 Bilan sur la comparaison de QUIC versus TCP
6 Équité des algorithmes de contrôle de congestion
6.1 Scénarios de tests
6.2 Études des algorithmes de contrôle de congestion avec eux-mêmes
6.2.1 Études d’équité des algorithmes de contrôle de congestion avec euxmêmes
6.2.2 Analyse de l’impact des paramètres réseaux
6.3 Études d’équité des algorithmes de contrôle de congestion entre-eux
6.3.1 Analyse des valeurs d’équité
6.3.2 Analyse en fonction des paramètres réseau
6.4 Définition du nombre de tests pour l’évaluation de l’équité
6.5 Bilan sur l’évaluation de l’équité des algorithmes de contrôle de congestion
7 Conclusions
7.1 Conclusions, observations et propositions
7.1.1 Procédure de mesures
7.1.2 Mesure d’équité du protocole QUIC
7.1.3 Équité des algorithmes de contrôle de congestion
7.2 Contributions majeures
7.3 Perspectives de recherches
7.4 Publications
Annexes

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *