Synthèse des solutions proposées pour les réseaux filaires

Télécharger le fichier pdf d’un mémoire de fin d’études

Solutions proposées : le cas des réseaux filaires

Plusieurs travaux de synthèse ont été proposés pour surmonter le problème de la consommation énergétique dans les réseaux de communication.
[Bianzino et al., 2012], [Bolla et al., 2011b], [Orgerie et al., 2012] et [Krief, 2012] décrivent les solutions qui ont déjà traité le problème de la consommation énergétique dans les réseaux de communication. La première conclusion que nous pouvons dégager en étudiant ces solutions est qu’elles peuvent être classées selon leur nature de déploiement dans les infrastructures réseaux : c’est à dire de nature matérielle ou logicielle.
Sur cette base de classification, les approches de réduction énergétique dans les réseaux de communications filaires sont classées en trois grandes parties :
• Solutions matérielles : ces solutions nécessitent des modifications physiques et ma-térielles des réseaux de communications, ce sont des solutions coûteuses et com-plexes à gérer puisqu’elles consistent à modifier l’architecture des réseaux de com-munication.
• Solutions logicielles : ce sont des solutions qui se présentent sous forme d’ensemble d’algorithmes informatiques. Ces solutions consistent par exemple à mettre en veille de manière intelligente certaines composantes du réseaux inactives ou peu utilisés, ou de changer la route suivie par les données transportées en cas de besoin tout en actualisant les tables de routages (suivant l’état des routeurs) mais aussi de réduire la bande passante disponible sans dégrader la QdS.
• Solutions hybrides : ces solutions regroupent à la fois les deux solutions précédentes. Remarque : dans notre cadre d’étude, La qualité de service (QdS) désigne la capacité
d’un réseau à fournir un support de communication conforme à certaines exigences, les principaux critères permettant d’apprécier la qualité de service sont le débit, le délai, le taux de perte, la gigue.
Pour chacune de ces solutions, nous exposons les approches qu’elles composent selon leur ordre d’apparition (ordre chronologique).

Solutions matérielles

Les solutions matérielles sont placées parmi les premières solutions qui ont été pro-posées pour réduire la consommation énergétique des réseaux de communication. Ces solutions sont les résultats de l’amélioration des capacités matérielles (par exemple, éco-nomie d’énergie par la longueur du câble, ventilateur de refroidissement intelligent . . .) et de l’ajout des nouvelles fonctionnalités (par exemple mode On/Off, mode de faible puissance, mode automatique d’alimentation . . .).
Une solution matérielle très simple pour économiser l’énergie est d’utiliser les inter-rupteurs (ou encore commutateurs) marche/arrêt pour éteindre les équipements réseaux lorsqu’ils ne sont pas utilisés. En partant de ce principe, les techniques Wake-On-LAN [AMD and Hewlett-Packard, 1995] permettent d’éteindre ou d’allumer les équipements réseaux à distance (par exemple le script wakeonlan 3).
Gupta et Singh [Gupta and Singh, 2007b] proposent deux techniques de réduction énergétique : « disk spin down » et DVFS qui consistent à améliorer le bas niveau des équi-pements réseau. Ces techniques permettent de détecter les périodes d’inactivité lorsque les liens restent inactifs ou sous-utilisés dans le but d’obtenir des économies énergétiques avec un faible impact sur les pertes et les retards.
En partant du principe d’optimisation énergétique et en s’appuyant sur les solutions proposées sur ce sujet, certaines grandes entreprises du secteur ont déjà entamé une ré-volution « verte » en développant des équipements réseaux « green » [Ananthanarayanan and Katz, 2008].
• Cisco (EnergyWise 4) : a pour but de réduire la consommation énergétique de toutes les composantes connectées à un réseau ;
• Alcatel-Lucent (GreenTouch 5) : basé sur tous les réseaux optiques dans le but de maîtriser la technologie pour les futurs réseaux verts ;
• IBM (Big-Green 6) : dont le but est de réduire la consommation énergétique des Data Centers ;
• ICT4EE 7 (Information and Communication Technologies for Energy Efficiency) forum (GeSI, DigitalEurope, JBCE and Europe TechAmerica) : dont l’objectif est l’amélioration de l’efficacité énergétique dans les systèmes de TIC ;
• NetGear 8 : offre une large gamme de routeurs innovants et de commutateurs non énergivores
• Hewlett-Packard, Intel, Microsoft, Phoenix Technologies, Toshiba (Advanced Confi-guration and Power Interface 9) fournissent un standard ouvert pour la configura-tion de composantes réseau et la gestion énergétique par le système d’exploitation.
L’économie d’énergie basée sur la longueur des câbles réseaux est similaire à celle dédiée aux réseaux sans fils et qui consiste à ajuster leur portée radio en fonction de la distance entre les voisins d’un poste réseau mobile. Les spécifications des câbles Ethernet à paires torsadées typiques exigent une longueur maximale de 100 mètres [Burg, 2001].
Dans [Roberts, 2009b], une autre solution matérielle a été proposée : elle consiste à revoir la conception des équipements réseaux (routeurs, commutateurs . . .) dans le but d’intégrer des technologies plus économes en énergie et réduire la complexité des dispositifs actuels par exemple en modifiant la fréquence d’utilisation des équipements réseaux.
Après avoir exposé les solutions matérielles, nous présentons les solutions logicielles de la littérature pour réduire la consommation énergétique dans les réseaux de communi-cation filaires.

SOLUTIONS PROPOSÉES : LE CAS DES RÉSEAUX FILAIRES 19

Solutions logicielles

Dans cette partie, nous exposons les solutions logicielles pour réduire la consommation d’énergie dans les infrastructures réseaux filaires. Dans un premier temps, nous présen-tons l’approche « Interface Proxying ». L’idée principale de cette solution est de déléguer le traitement du trafic lié aux équipements réseaux les plus énergivores à des cartes réseaux de faible puissance ou à des dispositifs de proxy externes. Ensuite, nous décrivons la solu-tion « Smart Sleeping » qui consiste à mettre en veille les composantes des infrastructures réseaux inactifs ou peu utilisés. Puis, nous continuons la description par l’approche ALR qui adapte les débits de transmission en fonction de la charge subie pour rester sous des seuils énergétiques propres de l’équipement réseau. Cette approche est la piste choisie pour ce travail. Enfin, la description se termine par des solutions liées aux protocoles.
L’objectif principal de déploiement d’un tel proxy dans cette approche est de gérer les flux de données quand l’équipement réseau est en veille, et à lui faire réveiller seulement en cas de besoin.
Une étude, présentée dans [Irish and Christensen, 1998], montre que 30% des PCs personnels et 75% des PCs professionnels sont laissés allumés alors qu’ils sont non utilisés. Cependant, les auteurs ont cherché une solution qui consiste à éteindre complètement les ordinateurs durant les périodes d’inactivité. L’inconvénient de cette méthode est que l’arrêt total de l’ordinateur provoque la mise hors tension de toutes les cartes réseaux, ce qui résulte la perte de la connectivité réseau.
Afin de résoudre ce problème de perte de connectivité, l’utilisateur peut utiliser un proxy pour répondre aux messages non urgents pour le compte d’un nœud virtuel et de réveiller ce nœud seulement en cas d’urgence. Ces solutions [Christensen et al., 2004], [Gunaratne et al., 2005], [Jimeno and Christensen, 2008] sont basées sur le NCP qui gère les demandes de présence de réseau tels que ARP, ICMP, DHCP . . . , et garde les connections vivantes (Voir l’exemple de la figure II.6).
Dans le même contexte, ce NCP doit également être en mesure de maintenir les connexions TCP et les flux de données UDP mais aussi de répondre aux messages envoyés par l’utilisateur.
Cette solution proxy peut être implémentée dans les cartes réseaux [Sabhanatarajan and Gordon-Ross, 2008].
Dans [Agarwal et al., 2010], les auteurs ont proposé une carte réseau améliorée qui répond à la demande du réseau dans le cas où l’équipement est à l’état « STR ».
Une autre approche illustrée dans [Agarwal et al., 2010], nommée « SleepServer », qui permet aux hôtes de faire la transition à des états de mise en veille avec une faible consom-mation énergétique tout en maintenant la présence attendue des applications réseaux à l’aide des serveurs proxy spécifiques à la demande.

Synthèse des solutions proposées pour les ré-seaux filaires

Dans cette partie, nous exposons une synthèse des solutions proposées pour réduire la consommation énergétique des réseaux de communication, nous dégageons les avantages et les limites de chacune de ces solutions.
Malgré leur facilité d’intégration et les résultats intéressants qu’elles offrent non seule-ment pour la quantité énergétique réduite mais aussi pour leur transparence face aux performances des réseaux offertes aux utilisateurs (pas de dégradation significative de la QdS), les approches matérielles restent des solutions très coûteuses et très compliquées à réaliser notamment quand nous sommes face à une topologie de réseau très étendue.
Même pour le coté commercial, les fournisseurs des équipements réseaux ne sont pas motivés à adopter ce genre de solution de gestion énergétique, c’est-à-dire d’abandonner la redondance et le sur-dimensionnement des architectures des réseaux de communication.
Pour les autres types des solutions pour la gestion énergétique des réseaux de com-munication, nous estimons qu’elles sont plus intéressantes et plus encourageantes à être intégrées dans les architectures et les équipementiers réseaux dû aux résultats convain-cants pour les opérateurs et pour les utilisateurs en termes des performances réseaux et des réductions de la consommation énergétique.
Pour la mise en veille intelligente des routeurs, quand ces derniers sont à l’état inac-tifs ou peu utilisés, le déploiement de cette approche engendre d’importantes réductions d’énergie.
Mais cette approche présente des inconvénients majeurs. Pendant des périodes très spécifiques, la mise en veille intelligente peut générer des délais supplémentaires lors de la transmission des paquets entre les différents terminaux. Ces délais sont des conséquences de temps de redémarrage des appareils (qui sont déjà en veilles).
Aussi, les transitions entre les périodes où l’équipementier est mis en veille et les périodes de fonctionnement normaux peuvent déstabiliser le réseau en augmentant les risques des pannes, car la plupart des équipements employés actuellement sont conçus de manière à fonctionner à plein régime.
Pour surmonter le problème de passage (entre les deux états actif et en veille), certains nouveaux équipements ont été conçus de façon à permettre une transition rapide et efficace entre les différents états de fonctionnement.
Aussi lorsque nous sommes face à un type de topologie qui subit des modifications fréquentes, les tables de routage du réseau doivent être modifiées également afin de main-tenir la continuité de la propagation des informations associées (éviter la perte de chemin suivi par les informations).
Un autre inconvénient majeur est de déterminer le moment idéal pour appliquer la mise en veille des équipements réseaux sans détériorer les performances réseaux.
Pour l’approche « Interface Proxying », l’avantage majeur de cette solution est sa facilité de mise en place dans l’architecture réseau car elle consiste à modifier les protocoles de communications (modification au niveau logiciel) et aussi elle donne des résultats satisfaisants pour l’utilisateur en terme de performances et de gestion énergétique.
Aussi et comme nous l’avons vu précédemment, les proxys sont dédiés à des protocoles (des applications) particuliers. Ainsi, ils sont capables d’interpréter le trafic et notamment de rendre les informations invisibles pour les utilisateurs. Par conséquent, nous diminuons le trafic et augmentons la bande passante simultanément. Nous avons donc un bon contrôle de ce qui transite dans le réseau, et par conséquent la consommation énergétique sera réduite.
Dans le cadre d’un réseau de grande taille, les serveurs n’ont aucune information des détails physiques de leur réseau et le considèrent comme un réseau non hiérarchique dans lequel ils peuvent atteindre n’importe quelles destinations simplement en envoyant une requête.
Par contre, l’utilisation d’un proxy peut engendrer quelques inconvénients. Notamment sur la qualité de service en terme des délais de transmissions. Aussi ce type de solution augmente, dans certains cas, la quantité du trafic de proxy sur les liens de communication et les hôtes ont besoin de plus grandes tables de routage afin de traiter des tracés d’adresse IP-vers-MAC (augmentation de la capacité de calcul qui entraîne l’accroissement de la consommation énergétique).
Sur le plan sécuritaire, l’interface proxying peut nuire à la sécurité locale quand une machine prétend être une autre afin d’intercepter des paquets, ce qui rend cette solu-tion inapplicable par certains réseaux qui nécessitent un niveau de sécurité plus élevé et n’utilisent pas un proxy pour la résolution d’adresse.
La technique d’adaptation des débits de transmission (ALR) présente plusieurs avantages majeurs face aux autres solutions logicielles. Cette technique conduit à une signi-ficative quantité d’énergie réduite. Signalons également que cette méthode est facile à exploiter car elle se repose sur une implémentation purement logicielle, par contre son inconvénient principal est qu’elle nécessite des équipements informatiques adéquats afin d’être exploitée sur ces derniers (par exemple des routeurs ALR). Dans le même contexte, la solution ALR présente un avantage majeur, elle peut être couplée avec d’autres solu-tions de gestion énergétique sous condition de satisfaire certaines conditions d’adéquations entre eux. Comme avec les autres approches, l’ALR peut provoquer une dégradation des performances réseaux en terme des délais de transmission des paquets. Ces délais sont dus à l’occupation de « buffer » par les paquets (temps d’attente imposé afin d’adapter les taux de transmission dans les liens).
Un autre point positif de la technique ALR est qu’elle permet d’estimer la consomma-tion énergétique instantanée d’un équipement informatique grâce au modèle énergétique (voir III.1) en fonction des taux d’utilisation des liens.
La technique ALR manipule tous les flux qui passent par un équipement réseau de la même manière (ne fait pas la différentiation des flux). Cette non-différentiation des flux peut causer des problèmes lorsque nous sommes face à un flux prioritaire (ALR affecte un délai supplémentaire que ce soit le type de flux). Cette distinction des trafics peut avoir des conséquences positives sur la qualité de service en terme de délai. Nous pouvons imaginer, par exemple, des flux marqués par leur ordre de priorité.
Les solutions hybrides, quand à elles, restent les solutions les plus performantes grâce aux performances réseaux qu’elles offrent et l’économie de la quantité d’énergie consommée qu’elles assurent. Ces performances proviennent de la coordination entre les différentes solutions de réductions énergétiques « classiques », autrement elles profitent des avantages en terme de qualité de service et en gestion énergétique afin de concevoir des équipements réseaux plus performants (« verts »). Reste un seul inconvénient principal pour ce type de technique verte est comment satisfaire l’adéquation entre les différentes solutions en jeu d’où sa complexité de mise en place.
En conclusion, toutes les solutions présentées dans ce chapitre permettent de réduire la consommation énergétique des réseaux de communication, plus ou moins efficacement. Cependant, les performances peuvent être dégradées d’où le compromis qualité de service – gestion énergétique. Il reste après de déterminer le seuil maximal toléré pour les délais de transmission sans perdre la viabilité des réseaux de communication afin de diminuer au mieux la consommation énergétique dans ce dernier.
Dans le tableau II.4, nous récapitulons les approches de réductions énergétiques dans les réseaux de communication ainsi que leurs avantages et leurs inconvénients.

Modélisation de la consommation énergétique d’un routeur

Le modèle ALR

La première étape consiste à modéliser la consommation énergétique des équipements réseau. Pour atteindre ce but, nous avons besoin d’un modèle énergétique qui répond à plusieurs critères. Tout d’abord ce modèle énergétique permet de mesurer instantanément la consommation énergétique des équipements réseaux tout en faisant la liaison entre la consommation énergétique et les différents paramètres réseaux comme la bande passante et le trafic qui traverse un nœud de communication. Aussi le modèle énergétique choisi doit être adapté à la théorie de commande et ces différents critères (référence, stabilité, temps de réponse).
En prenant en considération tous les critères mentionnés ci-dessus, nous choisissons le modèle énergétique ALR. Le modèle ALR permet de calculer instantanément la puissance consommée par un équipement réseau en prenant en compte les caractéristiques de ce der-nier. Aussi dans ce modèle énergétique, nous remarquons une dépendance entre la bande passante et la puissance consommée par un équipement réseau. Le modèle ALR présente deux niveaux de puissance statique (sans trafic concurrent) et dynamique (en présence de trafic concurrent). Cette dépendance nous permet de modifier la bande passante afin de contrôler la consommation de l’énergie dans le nœud de communication, c’est-à-dire de contrôler la puissance dynamique de ce dernier.
Dans ce travail, nous considérons un modèle de routeur concevable sous NS-2 (Network Simulator). NS-2 est l’un des simulateurs les plus utilisés actuellement dans la commu-nauté des Réseaux [Fall and Varadhan, 2002]. Ce simulateur nous permet de simuler de grands réseaux avec des trafics réalistes et d’obtenir des mesures de qualité de service.
Le module ECOFEN (Energy Consumption mOdel For End-to-end Networks) a été développé sous NS-2 : il donne la consommation énergétique instantanée au niveau de chaque équipement en tenant compte du trafic et du type d’équipement utilisé (routeur de cœur, switch, carte réseau, etc.) [Orgerie et al., 2011]. Ce module se base sur le modèle ALR (Adaptive Link Rate) qui adapte les débits de transmission en fonction des taux d’utilisation des liens de communication, par conséquent des débits sur ceux ci.

Modélisation mathématique des réseaux de com-munication

Dans le cadre de l’architecture des réseaux IP, nous déterminons tout d’abord un modèle mathématique de nœud de communication approprié pour appliquer la théorie du contrôle. Ce modèle dynamique nous permet de comprendre la dynamique des flux dans les réseaux de communication filaire, décrire la congestion dans une variété des réseaux de communication filaire, prévoir les changements des modèles de flux dus aux changements des flux dans les liens de communication.
Dans la littérature, plusieurs travaux de recherches ont déjà conçu un certain nombre de représentations mathématiques qui décrivent le comportement dynamique des réseaux de communication filaire. Dans une grande partie de ces travaux, les modèles mathé-matiques proposés représentent une seule architecture qui est le modèle TCP/IP [Misra et al., 2000], [Misra et al., 1999], [Low et al., 2002], [Benmohamed and Meerkov, 1993], [Mascolo, 1999], [Srikant, 2004]. Cette modélisation fluide a été développée dans le but d’effectuer une analyse quantitative du problème de congestion.
Le modèle mathématique fluide proposé par [Misra et al., 1999] couple les pertes et le taux d’envoi de l’architecture TCP/IP. Ce modèle traduit le mécanisme d’évitement de congestion du protocole TCP (voir annexe A). Soit N le nombre des flux sources TCP qui arrivent à l’entrée d’un routeur. Nous considérons que les flux TCP sont homogènes. Toutes les connexions sont supposées avoir le même temps d’aller-retour (RTT). Dans ce modèle, chaque source applique le mécanisme d’évitement de congestion, pour éviter le problème d’effondrement du réseau. De plus, nous supposons que le trafic TCP est fluide, ce qui implique la continuité de la dynamique de la fenêtre de congestion.
Le modèle dynamique de module TCP est décrit par les deux équations mathématiques suivantes (III.5)-(III.6). L’équation différentielle suivante rend compte de l’évolution de la fenêtre de congestion W (t) d’une source TCP : C q(t).
W˙ (t) = 1 − W (t)W (t − R(t)) p(t − R(t)). (III.5) R(t) 2R(t − R(t)).
Le signal p(t) est le taux d’éjection des paquets et appliqué par l’AQM. Le retard R représente le RTT en secondes.
Ce retard se traduit par l’équation mathématique suivante : q(t) R(t) = C + Tp où q(t) est la taille de la file d’attente du buffer au niveau du routeur. Le terme Tp représente le retard de propagation fixe et le terme indique le délai d’attente dans la file d’attente.
La dynamique de la taille de la file d’attente s’exprime par l’équation mathématique suivante : q˙(t) = −C + W (t) N. (III.6)R(t).
où C et N sont des paramètres caractéristiques du réseau et représentent, respective-ment, la capacité du lien et le nombre des connexions TCP traversant un routeur.
L’objectif principal du modèle mathématique présenté ci-dessus est d’appliquer une stratégie d’éjection à travers le paramètre p(t) afin de régler le phénomène de congestion dans un routeur. Le modèle III.5 ne fait pas apparaître le flux de sortie. Seulement les dynamiques de la fenêtre de congestion et de la longueur de la taille de file d’attente du routeur sont représentées sur ce modèle mathématique à partir des méthodes d’analyse différentielle stochastique. Notons qu’il est possible de déterminer le trafic d’entrée à partir de la fenêtre de congestion qui est difficilement mesurable en pratique en divisant ce dernier par le temps d’aller retour RTT [Ariba, 2009].
Nous rappelons que notre objectif principal dans cette thèse est de modifier le flux tra-versant un routeur dans le but de rester sous des seuils énergétiques préalablement définis par le modèle énergétique étendu ALR. Cette opération est réalisée par un mécanisme de contrôle de flux. Pour cela, et comme bien souvent en Automatique, il est indispensable de déterminer un modèle mathématique d’un routeur qui répond à nos besoins, un modèle dynamique qui fait apparaître à la fois le trafic d’entrée et de sortie d’un routeur.
L’idée de contrôle de flux est illustrée comme suit : nous considérons que chaque routeur d’une architecture de réseau filaire a une source de trafic d’entrée wn et un trafic de sortie uk. Cette hypothèse nous conduit à choisir un modèle de réseau inspiré de la dynamique de l’écoulement d’un fluide afin de déduire un modèle mathématique décrivant ce phénomène. Ce modèle mathématique définit la variation de la taille de file d’attente comme étant la différence entre le flux entrant et le flux sortant d’un seul routeur (voir [Benmohamed and Meerkov, 1993], [Mascolo, 1999], [Srikant, 2004]). Nous supposons ici que le retard est suffisamment négligeable puisque nous travaillons au niveau d’un seul nœud de communication (dans notre travail un routeur).
Nous considérons dans cette thèse un réseau de communication à commutation de paquets, constitué par plusieurs sources et destinations et un nœud intermédiaire. Ces sources envoient les flux de données partitionnés en paquets vers ses destinations à travers un routeur intermédiaire (Figure III.3). À chaque paquet reçu, le routeur le stocke dans son buffer avant d’être renvoyé vers sa destination. Et comme la capacité du buffer est limitée, un flux d’entrée excessif peut provoquer la perte d’un certain nombre des paquets. Alors dans ce cas, le routeur est congestionné ce qui impose des conséquences négatives sur les performances réseau.

Synthèse de la commande

Comme nous l’avons évoqué précédemment, un dispositif de contrôle de flux modifie la dynamique du trafic de sortie d’un routeur. Il s’agit donc de synthétiser une loi de commande saturée, afin de satisfaire les contraintes physiques dans les réseaux de com-munication (capacité de lien et variation de la période d’échantillonnage par exemple).
En d’autres termes, nous synthétisons une loi de commande stabilisant la taille de la file d’attente à partir des mesures de l’état du réseau, c’est à dire de converger le plus rapidement possible la taille de file d’attente réelle vers une taille de file d’attente de référence (définie dans le chapitre III). Cette opération permet de stocker temporairement un certain nombre des paquets dans un buffer « virtuel », ce qui entraîne un retardement contrôlé et limité du flux de sortie du routeur d’où une diminution de la consommation énergétique dans le routeur ALR étendu.
Dans le but de régler le flux traversant un routeur, nous proposons la loi de commande suivante :
avec
• K=[K1
• xk = [ek uk = satC0 {uk−1 + Kxk}, (III.11) K2] le vecteur de gain de la commande. ek−1]T .
• C est la capacité du lien à la sortie du nœud contrôlé.
La condition de saturation de la loi de commande est ajoutée afin de satisfaire la contrainte physique des liens dans les réseaux du communication, dont la bande passante disponible est comprise entre 0 et C.

Représentation polytopique de la commande saturée

La loi de la commande (III.11) est une fonction non linéaire. Elle présente une satu-ration pour satisfaire la contrainte physique des liens de communication. Par conséquent, la saturation est modélisée par un modèle polytopique obtenu en appliquant les deux lemmes que nous présenterons dans la suite de cette section.
On définit le vecteur χk , h T i T − 1 uk−1 xk qui regroupe la flux de sortie à l’instant k ainsi que l’erreur de la taille de la file d’attente aux deux instants k − 1 et k.
Le lemme suivant a pour objectif d’encapsuler la fonction de saturation dans un poly-tope convexe. De ce fait, nous établirons une combinaison convexe à l’intérieur des limites de la saturation qui permet dans un premier temps d’éliminer cette non linéarité.
Lemme 1. [Hu and Lin, 2001]. Soient K, G ∈ R1×2, pour tous, χk ∈ R3×1, si χk ∈ {χk ∈ R1×3 : [1 G]χk ∈ [0 C]}, alors satC0 {[1 G]χk} ∈ Co {[1 K]χk, [1 G]χk} .

Paramètres responsable de la consommation énergétique

Nous avons vu dans la section II.2.2 que le choix de la taille de file de référence qref dé-pend essentiellement de deux paramètres principaux : la fenêtre temporelle d’actualisation de la taille de file d’attente de référence Tqref et la taille de la file d’attente de référence elle même qref . Or ces deux derniers paramètres sont directement proportionnels à des paramètres de réglage β et γ. Le déploiement d’une telle stratégie permet de mieux choisir le nombre des paquets à stocker dans qref et par conséquent les performances énergétiques des réseaux de communication sont améliorées sans trop dégrader les QdS.
Dans un premier temps, nous avons fait plusieurs simulations avec différentes combi-naisons des paramètres (β, γ) pour choisir le meilleur couple optimal avec les meilleures performances réseau et le meilleur gain énergétique. Autrement dit, nous avons effectué par une méthode empirique avec un nombre conséquent de simulations tout en conservant les mêmes caractéristiques de la topologie déployée (flux d’entrée, bande passante . . . ).
La variation des deux paramètres permet d’agir énormément sur les performances réseaux ainsi que sur la quantité d’énergie réduite. Le choix judicieux de la moyenne w¯n de trafic d’entrée, sur une fenêtre de temps fixe Tw, prend en compte la grande variabilité de ce trafic. Nous appuyons notre décision de choix de meilleur couple (β, γ) sur deux mesures différentes : le gain de puissance sur la totalité de période de simulation noté GW et le taux maximum entre la réduction et la surconsommation énergétique TGW . Ces deux mesures sont indispensables pour valider le choix de la valeur de la taille de file d’attente de référence optimale qref .
Pour les simulations, nous avons fixé tout d’abord 21 valeurs de γ de 500 à 1500 avec un pas de 50. Le choix de cet intervalle de variation de γ est pris en tenant en compte le rapport entre la taille de file d’attente de référence qref et le trafic moyen sur une fenêtre de mesure Tw. C’est à dire nous ne pouvons pas prendre une grande valeur de γ pour ne pas avoir une taille de file d’attente de référence qref petite et par conséquent nous n’aurions aucune réduction de puissance. De plus, si nous prenons une petite valeur de γ et avec une grande valeur de qref , tous les paquets seront stockés dans qref et les performances réseau seront dégradées (notamment en terme de délai). Pour chaque valeur de γ, nous associons 8 valeurs de la fenêtre de mise à jour β ∈ [1, 8]. De même, le choix des valeurs de β est contraint par l’évitement les fortes oscillations de l’évolution de la taille de file d’attente qk ainsi que le flux de sortie uk. La période d’échantillonnage est fixée à Ts = 0.005s.
Dans la figure III.12, le gain en puissance GW pour les différentes combinaisons du couple (β, γ) est présenté. Cette figure montre clairement l’influence de ces paramètres sur la consommation énergétique de réseau, plus précisément l’influence de la taille de file d’attente de référence qref sur la quantité d’énergie réduite.Nous remarquons que le meilleurs réductions énergétique sont obtenues avec des valeurs de γ comprises entre 800 et 1100 et pour des valeurs de β proches de 8. Cependant, l’inconvénient de ces derniers est qu’il y existe de fortes oscillations du flux de sortie. Or la différence des gains énergétiques obtenus pour des valeurs de β comprises entre 4 et 8 n’est pas significative. Par conséquent pour obtenir de meilleures performances réseau, nous pouvons choisir des valeurs qui répondent au mieux aux exigences de la QdS.

Présentation de NS-2

Très utilisé dans la communauté des réseaux informatiques, le simulateur NS-2 [Fall and Varadhan, 2002] offre un support pratique pour tester une topologie arbitraire. Re-marquons qu’il avait été initialement conçu pour la recherche en environnement Internet et donc plus particulièrement pour l’analyse et l’amélioration du protocole TCP.
Le simulateur se compose de deux couches. Un premier niveau propose une interface de programmation en OTcl (Object Tools Command Language) dans laquelle l’utilisateur définit le scénario de simulation : la topologie du réseau, les caractéristiques des liens physiques, les protocoles utilisés, les trafics générés. . . Ces instructions sont transmises au travers d’un script puis traduites par l’interpréteur OTcl pour être ensuite exécutées par le noyau. Ce dernier, écrit en C++, constitue la couche centrale du simulateur. Il possède une structure bien organisée, facilement l’ajout d’extensions, dont les principales classes implémentées sont :
Application : la classe mère de toutes les applications (ftp,telnet,CBR . . . ).
Agent : la classe mère de tous les protocoles de niveaux 3 et 4 (TCP, UDP . . . ).
Node : la classe des nœuds du réseau (machines, routeurs). Chaque nœud contient une classe Classifier pour aiguiller les paquets arrivant d’un agent ou d’une interface vers la sortie appropriée. Queue : la classe mère de tous les types de buffers.
Packet : la classe qui définit les types de paquet (format, header). Les codes sources de NS étant en accès libre, il est possible de modifier le noyau puis de le recompiler afin de doter le logiciel de nouvelles fonctionnalités. Néanmoins, si le simulateur est plutôt convivial et facile à prendre en main à partir du langage OTcl, il est beaucoup plus délicat de programmer dans le noyau en C++. En ce qui concerne notre étude, nous souhaitons expérimenter le mécanisme de contrôle de flux dans un routeur développé au cours du Chapitre III. Les fichiers sources correspondants sont donnés en Annexe C.

Contrôle de flux appliqué à une topologie

Notre objectif consiste d’appliquer la méthode développée pendant cette thèse dans le cadre du projet « ADREAM » qui est une action structurante soutenue par le contrat des Projets État-Région Midi-Pyrénées 2007 − 2013. Ce projet transverse se situe dans la problématique émergente des systèmes ubiquistes et des agents mobiles autonomes, situés dans des environnements ayant des infrastructures de communication à la fois fixes et mobiles, contraintes en ressources (calcul, énergie), et nécessitent des fortes propriétés des performances, de robustesse et de résilience vis-à-vis d’entraves externes, même non prévisibles (obstacles, défaillances, niveaux de confiance et de coopération . . . ). Dans ce contexte, le double objectif du projet est d’abord, de bâtir les méthodologies et les solutions « système » nécessaires à la mise en réseau massive d’objets et d’agents intelligents, intégrés dans des environnements munis de multiples capteurs et actionneurs (figure IV.3), et, ensuite, de déployer et d’évaluer les méthodes proposées et les résultats obtenus dans un contexte d’application réelle et de complexité significative.
ADREAM, c’est aussi un bâtiment à énergie optimisée, voire même positive qui ac-cueille une plate-forme d’expérimentation considérablement instrumentée, qui a été spé-cialement conçue et réalisée pour accueillir des démonstrateurs de la plupart des projets de recherche réalisés au sein du laboratoire LAAS-CNRS. Le bâtiment ADREAM est vé-ritablement évolutif. Cela permet de mettre en avant la notion de « plate-forme ouverte ».
À ce titre, notons également, en plus des défis concernant les différents aspects tech-niques déjà mis en avant, la nécessaire analyse de l’impact de la forte pénétration (perva-sive) de ces systèmes et de leur exploitation au titre de leur acceptabilité, tant au niveau de l’usage (c’est en particulier le cas dans le cadre des interactions Homme-robot) que du respect de la vie privée 1. Dans ce même contexte se situe notre travail de thèse, le contrôle de flux développé permet de réduire la consommation énergétique dans les équipements réseaux « intelligents » situés dans le bâtiment « ADREAM ». Nous pourrions l’utiliser dans le cadre d’un cycle de fonctionnements à 3 modes (voir figure IV.2) :
— Le mode normal : comme son nom l’indique, c’est le mode où tous les équipe-ments d’ADREAM fonctionne en absence de tous genres des problèmes qui peuvent affecter le bon fonctionnement des différentes composantes du bâtiment ADREAM. Le bon fonctionnement du système informatique, la mise en place des nouveaux équipements ainsi que la sécurité informatique et l’administration quotidienne du réseau sont assurés par l’administrateur « systèmes et réseaux » pendant les heures de travail. En l’absence d’anomalie logicielle ou bien matérielle, légitime ou illégi-time, l’administrateur « systèmes et réseaux » fait face à un mode de fonctionnement normal avec une QdS garantie. Dans le cas d’une anomalie présente sur le réseau, quelle que soit son origine, l’administrateur basculera vers le mode de fonctionne-ment dégradé.
— Le mode dégradé : En présence d’une anomalie (cette anomalie peut entraîner une perturbation sur le réseau suite à un trafic malicieux ou bien un dysfonction-nement total ou partiel du réseau suite à une panne ou une baisse de production énergétique), l’administrateur « systèmes et réseaux » (ou un système de supervi-sion intelligent) décide, pour la sécurité et la survie de réseau, de forcer le pas-sage au mode de fonctionnement dégradé, à quelque soit le moment de la journée (24H /24H ).
— Le mode éco-conscient : de la volonté de faire une gestion intelligente du sys-tème informatique, d’un point de vue énergétique, l’administrateur « systèmes et réseaux » (ou un système de supervision intelligent) programme le passage en mode de fonctionnement éco-conscient pour un intervalle de temps judicieux (par exemple pendant la nuit et les jours fériées) et/ou en coopération avec les utilisateurs (par exemple pendant les tranches horaires 12H − 14H ). Ce mode de fonctionnement éco-conscient est un mode dégradé (compromis entre la réduction de la consom-mation énergétique et les performances réseaux tel que les délais de transmission des informations). Notons que le mode de fonctionnement dégradé n’est pas, en général, un mode de fonctionnement éco-conscient.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

 s matières
Notations
I Introduction générale 
II État de l’art 
II.1 Introduction
II.2 Problème de la consommation énergétique
II.3 Solutions proposées : le cas des réseaux filaires
II.3.1 Solutions matérielles
II.3.2 Solutions logicielles
II.3.3 Solutions hybrides
II.3.4 Récapitulatif
II.4 Synthèse des solutions proposées pour les réseaux filaires
II.5 Objectifs
II.6 Conclusion
III Modélisation énergétique et contrôle de flux d’un routeur
III.1 Introduction
III.2 Modélisation de la consommation énergétique d’un routeur
III.2.1 Le modèle ALR
III.2.2 Proposition d’un modèle ALR étendu
III.3 Modélisation mathématique des réseaux de communication
III.4 Analyse de la dynamique d’un routeur
III.5 Proposition : Contrôle de flux d’un routeur
III.5.1 Modélisation
III.5.2 Synthèse de la commande
III.5.3 Représentation polytopique de la commande saturée
III.5.4 Condition pour la commande non saturée
III.5.5 Conception d’une commande robuste sous-optimale saturée
III.5.6 Exemple numérique
III.6 Optimisation des paramètres
III.6.1 Paramètres responsable de la consommation énergétique
III.6.2 Formulation du problème d’optimisation
III.7 Conclusion 

IV Simulations sous NS-2
IV.1 Introduction
IV.2 Présentation de NS-2
IV.3 Contrôle de flux appliqué à une topologie
IV.3.1 Simulation avec le couple (
β, γ) = (2, 950)
IV.3.2 Simulation avec le couple (
β, γ) = (5, 950) :
IV.3.3 Simulation avec le couple (
β, γ) = (8, 850)
IV.4 Conclusion
V Conclusion générale et perspectives
C.1 Script pour la recherche empirique de meilleur couple (β, γ)
C.2 Script de simulations .
C.3 Codes sources du modèle énergétique ALR
Références Bibliographiques

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *