Les caractéristiques du trafic Internet et leurs évolutions

Les caractéristiques du trafic Internet et leurs évolutions

Le réseau Internet subit depuis quelques années une explosion considérable en terme d’augmentation du nombre d’utilisateurs et de la quantité du trafic qu’il doit transporter, en même temps qu’une mutation au niveau de ses usages comme nous l’avons mentionné en introduction. Ainsi, il est nécessaire d’opérer une évolution technologique du réseau de façon à le rendre capable de transporter les paquets des différents types d’informations proposées par toutes les applications utilisant l’Internet avec des QdS adéquates. Cette mutation technologique est encore aujourd’hui problématique, et il est très difficile de trouver de nouvelles architectures et de nouveaux protocoles capables d’offrir des mécanismes universels pour la gestion de la QdS dans l’Internet. Les premières tentatives se sont soldées par des échecs, notamment par un manque de connaissance globale de tous les protocoles et mécanismes de l’architecture TCP/IP, ainsi qu’un manque de connaissance des comportements des utilisateurs et des trafics qu’ils génèrent. Ainsi, nous allons voir dans la suite de ce chapitre comment la métrologie peut se positionner comme un outil adéquat pour aider à dissiper une partie de cette méconnaissance des caractéristiques du trafic et des comportements réseaux et utilisateurs.

Métrologie de l’Internet : un nouvel outil pour la recherche en réseaux

La métrologie, ou science des mesures, est une activité en plein essor dans le domaine des réseaux IP. Les opérateurs réseaux utilisent des techniques de métrologie depuis la mise en place des premiers réseaux de communication, mais cette discipline n’a jusqu’à présent jamais été utilisée comme elle aurait dû l’être. Pour l’instant, les opérateurs utilisent la métrologie, souvent passive et en ligne (à partir de SNMP et de ses MIB), pour faire de la supervision du réseau ainsi que du trafic qui circule dessus. Mais ce type de solution ne permet pas une analyse du trafic très fine. En effet, le protocole SNMP associé aux MIB ne permet pas de considérer des granularités d’observation inférieures à quelques minutes. Or nous verrons dans la suite de ce chapitre qu’il est nécessaire de considérer l’ensemble des échelles (des plus fines aux plus larges) pour une bonne analyse du trafic. Dès lors, le besoin d’outils de métrologie plus performants (capables de considérer à la fois des échelles d’analyse inférieures et supérieures à la seconde) devient nécessaire.

Avec l’essor du réseau Internet, la métrologie devient la pierre angulaire de nombreuses activités autant au niveau de la recherche en réseau que de sa conception, sa mise en place ou encore sa gestion. En effet, la métrologie recouvre maintenant des domaines d’étude comme :
– La classification des flux et du trafic, soit pour pouvoir trier les flux en fonction de la qualité de service qu’ils requièrent, soit, par rapport à des problèmes de routage, pour pouvoir les encapsuler dans des “trunks”  de trafic et leur faire tous globalement emprunter la même route optimale.
– Le dimensionnement des réseaux qui permet de mettre en place des capacités suffisantes pour assurer en permanence un service de qualité adapté à tous les utilisateurs.
– L’analyse des mécanismes du réseau, et ce autant aux niveaux des mécanismes des routeurs, des algorithmes de routage et des mécanismes de transport assurant le contrôle de flux, d’erreur, de congestion. . . Cette analyse permet de comprendre comment tous ces mécanismes interagissent entre eux, et de régler de façon fine les différents paramètres mis en jeu. D’un point de vue théorique, les résultats d’analyse permettent la conception de nouveaux mécanismes et protocoles.
– L’échantillonnage qui consiste à déterminer les moments et les endroits stratégiques à observer afin d’obtenir une vision globale (à partir d’un ensemble d’informations partielles) du réseau et du trafic.
– La modélisation de trafic qui permet de représenter et comprendre le trafic actuel, et ensuite d’adapter les paramètres du réseau aux caractéristiques du trafic pour, dans un deuxième temps, pouvoir réaliser de la prédiction de trafic et ainsi s’adapter, par exemple, aux caractéristiques de l’Internet du futur.
– La tarification et les SLA  qui permettent de définir des coûts de service en relation avec les ressources consommées, par exemple.

Les principes de la métrologie réseau

De nombreux projets de recherche en métrologie sont en cours, en particulier conduits par des opérateurs Internet et des laboratoires d’études et de recherche partout dans le monde. Ces projets peuvent être répartis en deux grandes classes : ceux fondés sur les mesures actives et ceux reposant sur les mesures passives décomposées elles-mêmes en mesures passives en ligne et hors ligne. Chacune de ces deux classes permet de mieux comprendre le comportement à la fois du réseau (observation des taux de perte, des délais. . .) et des applications (réactions en temps réel des applications aux pertes dans le réseau, du taux de transmission utile. . .) et de mettre en lumière les interactions entre les applications et le réseau.

Métrologie active : principe et exemples 

Le principe des mesures actives consiste à engendrer du trafic dans le réseau pour l’étudier et observer les effets des équipements et protocoles – réseaux et transport – sur le trafic : taux de perte, délai, RTT. . . Cette première approche possède l’avantage de prendre un positionnement orienté utilisateur. Les mesures actives restent le seul moyen pour un utilisateur de mesurer les paramètres du service dont il pourra bénéficier. En revanche, l’inconvénient majeur de cette approche est la perturbation introduite par le trafic de mesure qui peut faire évoluer l’état du réseau et ainsi fausser la mesure. De nombreux travaux menés actuellement abordent ce problème en essayant de trouver les profils de trafic de mesures qui minimisent les effets du trafic supplémentaire sur l’état du réseau. C’est par exemple le travail en cours au sein du groupe IPPM de l’IETF [99] [10] [11] [12]. Les mesures actives “simples” sont tout de même majoritaires dans l’Internet pour lequel de nombreux outils de test, de validation et / ou de mesure sont disponibles. Parmi eux, on peut citer les très célèbres ping et traceroute.
– Ping permet de vérifier qu’un chemin est valide entre deux stations et de mesurer certains paramètres comme le RTT ou le taux de perte.
– Traceroute permet de voir apparaître l’ensemble des routeurs traversés par les paquets émis jusqu’à leur destination et donne une indication sur les temps de passage en chacun de ces nœuds. L’un des projets les plus simples en théorie était le projet Surveyor [71] de la NSF aux Etats-Unis qui reposait sur l’utilisation de Ping, amélioré par la présence d’horloges GPS sur les machines de mesure. L’objectif était d’étudier les délais de bout en bout et les pertes dans l’Internet. Plusieurs projets ont actuellement pour sujet les mesures actives.
– Le projet NIMI (initié par Vern Paxson aux Etats-Unis) [103] a pour objectif le déploiement d’une infrastructure nationale (au niveau des Etats-Unis) de mesures actives. Cette infrastructure est flexible et permet le recueil de diverses mesures actives. Elle a été utilisée durant les deux ou trois années passées pour plusieurs campagnes de mesures, dont la détermination d’une matrice de distance dans Internet. L’infrastructure NIMI s’est aussi étendue en Europe, notamment en Suisse.
– Initialement en Europe, le projet RIPE [105], tente de déployer une infrastructure semblable à celle de NIMI. Cette infrastructure s’est depuis étendue au reste du monde. Par rapport à NIMI, RIPE fournit des services à ses clients : RIPE se propose de réaliser des études qui peuvent être demandées par ses clients, en plus des services classiques d’accès à des statistiques globales d’utilisation des chemins des réseaux de recherche surveillés.
– Le projet MINC [4] [31] était un client du projet NIMI. Il utilisait la diffusion de sondes actives par le biais du multicast pour inférer la structure interne du réseau et les propriétés sur tous les liens d’interconnexion ainsi traversés. En allant plus loin, c’est la tomographie qui est au centre de ce projet qui se focalise sur certains aspects dynamiques du trafic, comme les propriétés du routage, les pertes et les délais. Toutefois, comme le multicast n’est pas un service disponible partout, et comme il a été montré que le trafic dans l’Internet n’est pas symétrique, l’exploitation du multicast reste parfois difficile bien que son intérêt dans cette tâche ait été démontré. Aussi, le projet UINC a vu le jour et tente de reproduire le travail de MINC en unicast.
– Le projet Netsizer [85] de Telcordia (ex Bellcore) a pour objectif de mesurer la croissance de l’Internet, les points durs de congestion, les délais. . . Pour cela, depuis une ensemble de stations situées chez Telcordia, un programme teste la présence sur le réseau de toutes les adresses IP existantes et met à jour suivant les résultats une carte de l’Internet. Un des gros problèmes de ce projet reste la difficulté de représentation de ces informations.
– Le projet Européen INTERMON [80], qui se situe dans le prolongement du projet européen AQUILA [15], se propose de développer un ensemble d’outils de bout en bout pour permettre une caractérisation de la QdS dans les réseaux à grande échelle (Internet en particulier). L’idée est de pouvoir ainsi faciliter la définition de SLA entre les clients et les opérateurs Internet Européens. En particulier, un des objectifs de ce projet est de pouvoir détecter plus facilement quand les paramètres du contrat de service sont rompus et quelles sont les causes de ces dysfonctionnements : par exemple un simple non respect par les clients des paramètres définis dans le SLA ou à l’inverse des disfonctionnements réseaux plus problématiques pour l’opérateur. Dans ce dernier cas, l’utilisation d’outils basés sur traceroute est privilégiée pour détecter par exemple les changements et ruptures dans les routes Internet.
– Le projet américain AMP du NLANR [13] est un projet débuté il y a maintenant 5 ans. Ce fut un projet novateur dans le domaine de “l’active probing”. Les résultats collectés par mesures actives ont permis d’étudier l’impact de l’augmentation de la charge du trafic dans le réseau et ainsi améliorer sa conception, sa capacité ainsi que sa disponibilité à long terme.
– Le projet MOME [82] est une action coordonnée de l’IST et d’un programme de l’union européenne visant à offrir une plateforme commune pour l’échange d’outils et de connaissance. Il doit permettre la coordination des activités menées dans le cadre de la métrologie et de la mesure des réseaux IP entre les différents projets et les autres partenaires européens. Ainsi, la plateforme fournit des informations pour tester l’interopérabilité des outils de mesures des différents projets. Enfin, une base de données qui contient les résultats des mesures collectées est mise à disposition.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
1 Les caractéristiques du trafic Internet et leurs évolutions
1.1 Métrologie de l’Internet : un nouvel outil pour la recherche en réseaux
1.1.1 Les principes de la métrologie réseau
1.1.2 Le projet METROPOLIS
1.2 Trafic Internet : principes et notions associées
1.2.1 Notions mathématiques associées
1.2.2 Paramètres caractéristiques du trafic Internet
1.2.3 Eléments de modélisation du trafic Internet
1.3 Analyse des phénomènes de LRD dans le trafic
1.3.1 Tendances d’évolution du trafic
1.3.2 Les causes possibles de l’auto-similarité du trafic Internet
1.3.3 Mise en évidence de la LRD dans le trafic global
1.3.4 Etude quantitative de la relation existant entre oscillations et LRD dans
le trafic Internet
1.4 Conclusion
2 Evaluation de l’impact des caractéristiques du trafic Internet sur la QdS du réseau
2.1 Principales caractéristiques du trafic Internet actuel
2.1.1 Méthodes de caractérisation du trafic Internet
2.1.2 Caractéristiques simples du trafic en fonction du type de réseau
2.1.3 Caractéristiques du trafic selon la décomposition « souris vs. éléphants »
2.1.4 Les limites d’une décomposition souris / éléphants
2.2 Relation entre taille des flux, LRD, QdS et performances du réseau
2.2.1 Etude de l’impact de la famille d’application sur la variabilité du trafic
2.2.2 Etude de l’impact de la taille des flux sur le niveau de LRD du trafic
2.3 Conclusion
3 De l’utilisation des mesures de trafic pour améliorer les performances de l’Internet
3.1 La gestion de la QdS dans l’Internet
3.1.1 Les différentes métriques traditionnelles pour caractériser la QdS
3.1.2 Les approches traditionnelles visant à garantir la QdS dans l’Internet
3.2 Actions à mener pour une amélioration de la gestion de la QdS dans l’Internet
3.2.1 Prise en compte des caractéristiques du trafic Internet actuel
3.2.2 L’objectif d’amélioration de la QdS et des performances du réseau
3.3 L’approche MBN pour la gestion des réseaux de l’Internet
3.3.1 Présentation de l’approche MBN
3.3.2 Détails des mécanismes déployés dans MBN
3.3.3 Validation expérimentale de l’approche MBN appliquée au contrôle de congestion
3.4 Conclusion
4 Application du mécanisme MBCC pour l’amélioration de la robustesse du réseau Internet
4.1 Analyse de trafics d’attaques
4.1.1 Le projet METROSEC
4.1.2 Principes des attaques
4.2 Evaluation de l’impact de MBCC sur la robustesse d’un réseau confronté à des attaques de DdS
4.2.1 Principes des expérimentations
4.2.2 Résultats expérimentaux
4.3 Conclusion
Conclusion

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *