L’évolution des technologies pour les réseaux de télécommunications et l’accroissement de leurs performances permettent aujourd’hui le déploiement d’applications diverses qui concernent tous les aspects de la vie moderne, telles que la communication de personne à personne, la diffusion de l’information, les jeux, l’enseignement, le commerce etc. Le déploiement de ces applications s’effectue dans le cadre de réseaux multi-services se caractérisant par leur aptitude à répondre à des besoins importants en bande passante et à des exigences très variées en matière de qualité de service (QoS). A l’origine, l’ATM semblait être le mode de transfert cible pour les réseaux multiservices par la définition de plusieurs catégories de service (CBR : Constant Bit Rate, VBR : Variable Bit Rate, UBR : Unspecified Bit Rate . . .) ayant des besoins en termes de bande passante et de QoS, et IP semblait incapable d’assurer cette tâche. En effet, l’Internet actuel, qui est basé sur le protocole IP, est un réseau à commutation de paquets à l’architecture et aux principes simples. Il ne fournit qu’un service dit « au mieux » (BE pour Best Effort), c’est-à-dire sans aucune garantie sur le débit disponible, le délai subi ou encore les pertes de paquets. Ce service s’avère suffisant pour les applications « élastiques » de transfert de données mais insuffisant pour les nouvelles applications multimédias qui se développent et dont les contraintes temps réel se satisfont difficilement du service BE. Par conséquent, le reproche principal que nous pouvons faire aux réseaux IP actuels est l’impossibilité de contrôler la qualité de service autrement qu’en sur dimensionnant les ressources. Ce sur-dimensionnement peut être une piste intéressante afin d’améliorer la QoS, cependant, une solution cohérente ne peut pas être simplement basée sur le sur-dimensionnement. En effet, des efforts sont faits visant d’une part à définir des services IP permettant de transporter et d’acheminer des flux de données en fonction de leurs différentes contraintes, et d’autre part à définir des mécanismes et des protocoles permettant une ingénierie de trafic adaptée aux réseaux IP. Un de ces mécanismes est la fonction de contrôle d’admission (CAC : Call Admission Control). Son rôle est de limiter le nombre de flux admis dans un réseau afin de satisfaire les demandes de qualité de service des utilisateurs ou des applications, tout en partageant les ressources du réseau de façon équitable et efficace. À chaque requête, il s’agit de décider si l’occupation du réseau permet d’accepter le niveau de qualité de service demandé.
Le Contrôle d’Admission dans les Réseaux IP
Identification des Caractéristiques des Fonctions de CAC
Classer les approches de contrôle d’admission est une tâche difficile et subjective due à la diversité des paramètres impliqués dans ce processus. Dans ce paragraphe, nous identifions les différents aspects liés directement à la fonction de contrôle d’admission. Ceci est très important pour mieux débattre et analyser les solutions déjà existantes. Les caractéristiques que nous avons identifiées lors de notre étude sont les suivantes :
– La nature du réseau : cet aspect identifie le modèle du réseau sur lequel s’applique le contrôle d’admission. Ce réseau peut être défini pour des architectures multiservices ou à service unique (best effort). Cet aspect couvre aussi la portée de la fonction de CAC qu’elle soit à l’intra-domaine, à l’inter-domaine ou de bout en bout,– Le type de service : il dépend étroitement du niveau de garantie requis par le service. La terminologie utilisée pour distinguer les types de services ainsi que leur niveau de garantie n’est pas toujours la même : il est soit déterministe , statistique ou prédictif,
– La localisation de la prise de décision : elle identifie l’aspect centralisé ou décentralisé du processus d’admission d’appel. Ceci peut être accompli en identifiant les différents noeuds impliqués dans la fonction CAC ainsi que leur rôle. Par exemple, un noeud peut juste avoir le rôle de prise de décision afin d’admettre un nouveau flux ou non, comme il peut juste collecter des informations de réservations à partir d’autres noeuds. Deux facteurs importants sont à étudier avant de favoriser une approche par rapport à une autre, à savoir le taux des informations à stocker et à manipuler dans le cas des architectures centralisées, et les mécanismes de coordination à implémenter et à gérer dans le cas des architectures décentralisées,
– La nature de l’algorithme d’admission d’appel : cet aspect identifie la façon avec laquelle la décision d’admission d’appel est prise. L’algorithme de CAC peut être basé sur des paramètres, sur des mesures, sur des politiques ou sur une combinaison de ces trois critères (hybride). Cet aspect sera étudié avec plus de détails dans la section suivante.
Ainsi, sur la base de tous les points énoncés précédemment, la performance globale d’une approche d’admission d’appel peut être caractérisée de la façon suivante :
– La capacité de garantir le contrat de qualité de service,
– L’efficacité de l’utilisation des ressources pour les niveaux de service fournis,
– La complexité introduite par le processus d’admission d’appel en termes de temps de calcul et espace de stockage,
– La facilité de déploiement.
C’est à l’ensemble de ces caractéristiques que nous essayerons d’apporter un réponse tout au long de ce mémoire.
Les Critères de Décision
Établir les critères de décision d’une fonction d’admission d’appel consiste à définir un ensemble de règles qui conduisent à l’acceptation ou au refus des demandes de connexion. Les trois critères que nous avons identifiés sont les suivants :
Les Approches Basées sur des Paramètres
Désigné par l’acronyme PBAC (Parameter-Based Admission Control), ce type d’approche se situe parmi les mécanismes de contrôle d’admission « classique », basé sur une description statistique a priori de chaque flux. En effet, le réseau utilise ces paramètres afin d’estimer les ressources à allouer aux flux, et il vérifie leur disponibilité en fonction de tous les autres flux circulant sur le réseau. Le contrôle d’admission se base sur des modèles analytiques de files d’attente pour la détermination des paramètres décrivant le trafic émis. Ce type de contrôle d’admission parait le plus conservateur et orienté garantie de service par sa forte dépendance à la topologie du réseau. Par contre, il se heurte à la difficulté d’estimer rapidement l’impact d’un nouveau flux sur la charge du réseau et sur la QoS. ATM et IntServ s’appuie sur ce type de contrôle d’admission. De plus, si un flot estime mal son débit en excès ou en défaut, le principe peut conduire à un résultat erroné. Pour éviter une sur-allocation, il est alors nécessaire de contrôler individuellement les flux sur la base du débit déclaré ou ajuster le niveau global de réservation par une mesure.
Les Approches Basées sur des Mesures
Ce type de contrôle d’admission (désigné par l’acronyme MBAC : Measurement Based Admission Control), contrairement à l’approche traditionnelle, estime lui-même les paramètres du modèle de trafic, et ne se base plus sur des descripteurs de trafic à priori. D’autre part, le MBAC est intrinsèquement une procédure statistique puisqu’il se base sur des mesures, et il ne peut donc s’appliquer uniquement que dans le cadre de garanties statistiques et de modèles de trafic stochastique [Fig.2.1].
Le contrôle d’admission à base de mesures est utilisé pour du service prédictif. On parle de service prédictif car l’on considère que les mesures du passée sont un bon indicateur du comportement futur du réseau. Or ceci peut s’avérer dangereux car si cette prédiction du comportement futur du trafic n’est pas bonne, le MBAC risque soit de sous-utiliser les ressources du réseau, soit d’admettre trop de flux et dégrader ainsi les qualités de service demandées par les sessions en cours. Ce type de contrôle d’admission est bien approprié pour le service à contrôle de charge [4]. Le principe ne peut supporté une garantie absolue sur le service demandé, il considère une borne sur le délai nominal puis autorise des variations autour de cette valeur. Le but est d’obtenir une qualité de service semblable à celle que la session aurait eu dans des conditions où le réseau est peu chargé. Un certain nombre d’études ont conduit à l’exploration de différentes techniques de mesure de la charge du réseau. La première technique de mesure est le mécanisme à fenêtre temporelle (time window) utilisé par Jamin et al. [5]. Ils calculent un débit moyen sur chaque période d’échantillonnage de taille ¯b. A la fin de la fenêtre de mesure de taille t¯, ils prennent la plus grande valeur moyenne calculée sur cette fenêtre comme l’estimation de la charge pour la durée t¯de la fenêtre suivante. Lorsqu’un nouveau flux est admis dans le réseau, cette estimation est immédiatement augmentée de la valeur du débit déclaré par ce flux. En tout temps, si la nouvelle valeur moyenne du débit calculée sur une période ¯b est supérieure à la valeur de l’estimation de la charge, la valeur de l’estimation est immédiatement augmentée de la valeur de cette nouvelle moyenne. Le deuxième mécanisme de mesure est le mécanisme point samples. Il prend la valeur moyenne de la charge sur chaque période ¯b’ comme estimation de la charge du réseau.
|
Table des matières
Chapitre 1 Introduction Générale
1.1 Contexte de Recherche
1.2 Problématique
1.3 Contributions de la Thèse
1.4 Organisation du Manuscrit
Chapitre 2 Contrôle d’Admission, Découverte de Topologie et Agrégation
2.1 Introduction
2.2 Le Contrôle d’Admission dans les Réseaux IP
2.2.1 Identification des Caractéristiques des Fonctions de CAC
2.2.2 Les Critères de Décision
2.2.3 Les Différentes Familles de Contrôle d’Admission
2.2.4 Etude Comparative des Approches de CAC
2.3 Paramètres Manipulés par la Fonction de CAC
2.4 Étude des Mécanismes de Découverte de Topologie
2.4.1 Contexte Technologique
2.4.2 Etude des Outils Existants
2.4.3 Etude Comparative des Outils Existants
2.4.4 Vers une Approche Réactive et Complète
2.5 Application aux Réseaux de Grande Taille
2.5.1 La Notion de Passage à l’Échelle
2.5.2 Le Concept d’Agrégation de Topologie
2.6 Bilan
Chapitre 3 STAMP : Un Protocole de Découverte de Topologie réactif
3.1 Introduction
3.2 Le Modèle de Données de la Topologie
3.2.1 La Vue Opératoire
3.2.2 La Vue Descriptive
3.3 STAMP : Le Protocole de Signalisation
3.3.1 Présentation Générale
3.3.2 Structure du Protocole
3.3.3 Les Messages STAMP
3.3.4 Séquencement des Messages STAMP
3.3.5 Diagrammes d’États
3.3.6 Architecture Logicielle
3.3.7 La Topologie STAMP
3.3.8 STAMP vs SNMP
3.3.9 Emulation et Résultats
3.4 Bilan
Chapitre 4 Schéma d’Admission d’Appels
4.1 Problématique de la Fonction de Contrôle d’Admission
4.1.1 GPL : la Fonction de CAC
4.1.2 Propriété de Passage à l’Échelle
4.2 Définition des Modèles Agrégés
4.2.1 Modèle Full-mesh
4.2.2 Modèle Star
4.3 Fonction de Contrôle d’Admission sur un Modèle Abstrait de Topologie
4.3.1 Définition d’un Modèle Agrégé de la tdb
4.3.2 Les Règles de CAC
4.3.3 Le Scénario d’Emulation
4.3.4 Résultats
4.4 Amélioration du Schéma Full-mesh
4.4.1 Définition de Règles pour la Gestion de la Bande Passante
4.4.2 Emulation et Résultats
4.5 Amélioration du Schéma Star
4.5.1 Etude du Schéma Star sans la Définition des Bypasses
4.5.2 Mise en Place de Règles de Gestion de la Bande Passante
4.5.3 Emulation et Résultats
4.6 Intégration des Paramètres de Gigue et de Taux de Perte
4.6.1 Construction du Schéma Full-mesh
4.6.2 Construction du Schéma Star
4.6.3 Les Règles de CAC
4.6.4 Emulation et Résultats
4.7 Prise en Compte du Routage Multi-chemins
Chapitre 5 Conclusion Générale