QUALITE DE SERVICE DANS LES RESEAUX IP

Caractéristiques du protocole IP

                 Comme son nom l’indique, le protocole IP a pour rôle de router le trafic à travers un ensemble de réseaux interconnectés. Ceci est réalisé en transférant les datagrammes d’un module Internet à l’autre jusqu’à atteindre la destination. Il a été conçu pour réaliser l’interconnexion de réseaux informatiques et permettre ainsi les communications entre systèmes. Le succès de TCP/IP, s’il vient d’abord d’un choix du gouvernement américain, s’appuie ensuite sur des caractéristiques intéressantes:
 C’est un protocole ouvert, les sources en langage C en sont disponibles gratuitement et ont été développés indépendamment d’une architecture particulière, d’un système d’exploitation particulier, d’une structure commerciale propriétaire. Ils sont donc théoriquement transportables sur n’importe quel type de plate-forme, ce qui est prouvé à nos jours.
 Ce protocole est indépendant du support physique du réseau. Cela permet à TCP/IP d’être véhiculé par des supports et des technologies aussi différents qu’une ligne série, un câble coaxial Ethernet, une liaison louée, un réseau token-ring, une liaison radio (satellites,“Wireless” 802.11a/b/g/n), une liaison FDDI 600 Mbits, une liaison par rayon laser,infrarouge, xDSL, ATM, fibre optique, la liste des supports et des technologies n’est pas exhaustive…
 Le mode d’adressage est commun à tous les utilisateurs de TCP/IP quelle que soit la plate-forme qui l’utilise. Si l’unicité de l’adresse est respectée, les communications aboutissent.
 Les protocoles de hauts niveaux sont standardisés ce qui permet des développements largement répandus et interopérables sur tout type de machines. [1][2][4]

Les adresses publiques et les adresses privées

                Pour permettre l’interconnexion des réseaux, il faut garantir l’unicité des adresses. C’est l’une des attributions de l’IANA (Internet Assigned Number Authority) qui attribue à chaque réseau un identifiant unique. Cependant, tous les réseaux n’ont pas nécessairement un besoin d’interconnexion via un réseau public, dans ce cas le respect de l’unicité d’adresse au plan mondial n’est pas nécessaire. Certaines entreprises (organisations) disposent de leur propre réseau (réseau privé) et n’ont aucun besoin d’interconnexion vers l’extérieur, il est alors possible d’utiliser n’importe quelle adresse IP. Les adresses utilisées dans ce cas sont dites illégales. Par opposition, une adresse attribuée par l’IANA est dite publique ou légale. Afin de prévenir, dans les réseaux privés, une éventuelle utilisation anarchique des adresses, il a été envisagé de réserver des plages d’adresses à ces réseaux. Ces adresses ne sont pas routables sur le réseau Internet. Elles sont réservées à un usage privé (RFC 1918). De ce fait, elles sont dites adresses privées alors que par opposition les autres sont dites publiques. Que faire si un réseau utilisant des adresses de type privé a soudainement des besoins d’accès à un réseau public ? Deux solutions sont envisageables :
• Renuméroter toutes les stations avec des adresses publiques, non envisageable dans un grand réseau ;
• Réaliser une conversion d’adresses (NAT : Network Address Translator), c’est à dire mettre en œuvre un mécanisme qui établit une correspondance entre des adresse privées et une adresse publique.
Pour des raisons évidentes de commodité, seule la seconde solution est généralement adoptée. La passerelle d’accès au réseau public réalisera la translation d’adresses (figure 1.09). La traduction peut être statique, dans ce cas la table de correspondance est renseignée par l’administrateur du réseau, à une adresse privée on fait correspondre une adresse publique. Cette approche limite les possibilités de connexion vers l’extérieur. La traduction peut aussi être dynamique, la mise en correspondance adresse privée/adresse publique est établie au moment du besoin d’interconnexion de la machine du réseau privé. Les adresses publiques peuvent alors être partagées par l’ensemble des machines du réseau privé. La traduction dynamique permet d’en utiliser qu’un nombre restreint d’adresses publiques voire une seule pour N machines. [6][7][8]

Le protocole RARP

              RARP est l’acronyme de “Reverse Address Resolution Protocol”, il est défini dans la RFC903 (BOOTP et DHCP en sont des alternatives avec plus de possibilités).
Ŕ Normalement une machine qui démarre obtient son adresse IP par lecture d’un fichier sur son disque dur (ou depuis sa configuration figée dans une mémoire non volatile).
Ŕ Pour certains équipements cette opération n’est pas possible voire même non souhaitée par l’administrateur du réseau:
Ŕ Terminaux X Windows
Ŕ Stations de travail “diskless”
Ŕ Imprimante en réseau
Ŕ “Boites noires” sans capacité autonome de démarrage
Ŕ PC en réseau
Ŕ Pour communiquer en TCP/IP une machine a besoin d’au moins une adresse IP, l’idée de ce protocole est de la demander au réseau.
Ŕ Le protocole RARP est adapté d’ARP : l’émetteur envoie une requête RARP spécifiant son adresse physique dans un datagramme de même format que celui d’ARP et avec une adresse de “broadcast” physique. Le champ OPERATION contient alors le code de “RARP question”.
Ŕ Toutes les stations en activité reçoivent la requête, celles qui sont habilités à répondre (serveurs RARP) complètent le datagramme et le renvoient directement (“unicast”) a l’émetteur de la requête puisqu’elles connaissent son adresse physique. Par exemple, sur une machine Unix configurée en serveur RARP les correspondances entres adresses IP et adresses physiques sont enregistrées dans un fichier nommé généralement [4][7][8]

Augmenter la bande passante disponible

          Il existe plusieurs approches pour résoudre un problème de bande passante insuffisante :
 La meilleure approche est d’augmenter la capacité de liaison pour accueillir toutes les applications et tous les utilisateurs de la bande passante supplémentaire. Cette solution semble assez simple, mais dans le monde réel, il apporte un coût élevé en termes de temps et d’argent. Très souvent, il y a aussi des limites technologiques de mise à niveau vers une plus grande bande passante. [26][27]
 Une autre option consiste à classer le trafic en classes de qualité de service et de hiérarchiser en fonction de l’importance (les trafics critiques de l’entreprise doit obtenir suffisamment de bande passante, la voix devrait obtenir suffisamment de bande passante et l’expédition prioritaire et la circulation moins importante devrait obtenir la bande passante restante). Il y a une grande variété de mécanismes disponibles qui fournissent des garanties de bande passante, par exemple :
Priority ou Custom Queuing
Modified Deficit Round Robin
Distributed ToS-based and QoS-group-based Weighted Fair Queuing
Class-based Weighted Fair Queuing.[17][18]

Avantages et inconvénients du modèle IntServ

Les principaux avantages de RSVP sont les suivants :
 Il signale les demandes QoS par flux individuel. Le réseau peut alors fournir des garanties à ces flux individuels. Le problème est qu’il ne s’adapte pas à de grands réseaux en raison du grand nombre de flux de RSVP simultanées
 Il informe les périphériques réseau des paramètres de flux (adresses IP et numéros de port). Certaines applications utilisent des numéros de port dynamiques, qui peuvent être difficiles pour les périphériques réseau à être reconnus. NBAR est un mécanisme qui a été mis en place pour compléter RSVP pour les applications qui utilisent des numéros de port dynamiques mais qui n’utilisent pas RSVP. Il prend en charge le contrôle d’admission qui permet à un réseau de rejeter (ou rétrograder) de nouvelles sessions RSVP si l’une des interfaces dans le chemin a atteint la limite (toute la bande passante réservable a été épuisée). Les principaux inconvénients de RSVP sont les suivants :
 Le fonctionnement de RSVP provoque une signalisation progressive
 RSVP n’est pas extensible à de grands réseaux qui exige une garantie par flux alors qu’ils utilisent des milliers de flux. [21][23][25]

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION GENERALE
CHAPITRE 1 : LE PROTOCOLE INTERNET
1.1 Introduction
1.2 Caractéristiques du protocole IP
1.2.1 Datagramme IP
1.2.2 Comparaison IP-ISO
1.3 L’adressage dans le réseau logique
1.3.1 Principe de l’adressage IP
1.3.2 Structure d’adresses IP
1.3.3 Les classes d’adresses IP
1.3.4 Les adresses publiques et les adresses privées
1.4 Résolution d’adresses logiques
1.4.1 Le protocole ARP
1.4.2 Le protocole RARP
1.5 Conclusion
CHAPITRE 2 SYSTEME DE FILE D’ATTENTE
2.1 Introduction et structure d’un système d’attente
2.1.1 Objectifs de l’analyse des files d’attente
2.1.2 Les caractéristiques du système de files d’attente
2.1.3 Classification et formalisation d’un système de files d’attente
2.1.4 Analyse mathématique d’un système de files d’attente
2.2 Les principaux modèles de files d’attente
2.2.1 Modèles avec population infinie
2.2.2 Modèle avec population finie
2.3 Files d’attente markoviennes
2.3.1 Processus de naissance et de mort en équilibre
2.3.2 Notation X/Y/s/s
2.3.3 Système M/M/1
2.3.4 Système M/M/s
2.4 Conclusion
CHAPITRE 3 QUALITE DE SERVICE SUR LES RESEAUX IP
3.1 Introduction
3.2 La qualité de service sur le réseau IP
3.2.1 Bande passante disponible
3.2.2 Le délai de bout-en-bout
3.2.3 Processing and Queuing Delay
3.2.4 Elimination de paquet
3.2.5 Application de QoS
3.3 Les principaux modèles de QoS liés à la couche IP
3.3.1 Integrated Services Model
3.3.2 Differentiated Services Model
3.4 Les mécanismes de QoS
3.4.1 Principes
3.4.2 First In First Out
3.4.3 Priority Queuing
3.4.4 Custom Queuing
3.4.5 Weighted Fair Queuing
3.4.6 Gestion de files en mode CBWFQ + LLQ
3.5 Conclusion
CHAPITRE 4 SIMULATION DES DIFFERENTS MECANISMES DE QOS
4.1 Introduction
4.1.1 Choix du simulateur
4.1.2 Présentation du simulateur
4.1.3 Modèles du réseau
4.1.4 Configurations des trafics
4.2 Interprétations et résultats de la simulation
4.2.1 Le délai entre le routeur QoS et le routeur A
4.2.2 Données reçues
4.2.3 Le délai de bout-en-bout
4.2.4 Délai de variation ou le « jitter »
4.2.5 Les paquets éliminés
4.3 Conclusion
CONCLUSION GENERALE
ANNEXES
ANNEXE A DETECTION DE LA CONGESTION
ANNEXES B LE MODELE OSI
ANNEXES C CONFIGURATION DES PARAMETRES PENDANT LA SIMULATION
BIBLIOGRAPHIE

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *