Défis dans un environnement de virtualisation réseau
Il existe plusieurs défis dans un environnement de virtualisation réseau (VNE). En effet, les auteurs (Chowdhury et al. (2009)) ont présenté une liste de défis à prendre en considération qui sont, à savoir :
1) l’interfaçage : signifie que chaque InPs doit fournir des interfaces de communication qui permettent aux SPs d’envoyer leurs demandes et exigences en termes de ressources ;
2) la signalisation : avant de créer un VN, un SP doit disposer d’une connectivité réseau afin d’émettre ses demandes à l’InP ;
3) l’allocation des ressources et découverte de la topologie : pour une meilleure gestion des ressources, l’InP doit être en mesure de déterminer en temps réel la topologie des réseaux virtuels créés ainsi que l’état des ressources réservées ;
4) le contrôle d’admission et utilisation de police : le contrôle d’admission consiste à effectuer une comptabilité exacte des ressources allouées et non allouées en se basant sur des algorithmes distribués. Par contre, l’utilisation de police, consiste à exiger des garanties bien spéci fiques pour chaque VN créé, ce qui permet de garantir les performances demandées ;
5) le nommage et adressage : consiste à permettre aux utilisateurs UEs de se déplacer d’un SP à un autre avec une identité unique ;
6) la gestion de la mobilité : consiste à localiser en temps réel le positionnement des équipements réseau (routeurs, commutateurs. . . ) ainsi que les utilisateurs finaux (UEs) qui peuvent également se déplacer d’une manière logique d’un VN à un autre ;
7) la sécurité et privatisation : consiste à faire une isolation transparente entre les différents VNs, ce qui permet aux (SPs) de coexister sans que l’un impacte le bon fonctionnement de l’autre ;
8) l’interopérabilité : l’utilisation des différentes technologies par les SPs est un point critique. En effet, les SPs doivent être capables de communiquer entre eux sans contraintes techniques surtout lors de la création d’une relation parent-enfant;
9) l’économie de la virtualisation réseau : dans cette économie, les SPs sont les acheteurs dans cette économie, tandis que les InPs sont les vendeurs.
Différentes architectures de virtualisations sans fil
Afin d’assurer une meilleure expérience utilisateur à faible coût, les futurs réseaux virtualisés nécessitent une architecture plus souple et plus élastique que celle des réseaux cellulaires traditionnels. En effet, ces derniers sont généralement conçus indépendamment des coûts afin de rependre à la forte demande qu’on trouve dans les heures de pointe, ce qui entraîne un sur-approvisionnement coûteux de ressources réseau Zhou et al. (2014). La technologie de virtualisation sans fil (WAV) constitue un élément essentiel pour la mise en place d’un réseau virtualisé. En effet, cette nouvelle technologie promet de répondre à la demande croissante en QoS tout en réduisant d’une part les émissions de carbone et d’autres parts, les dépenses d’investissements de capital (CAPEX) ainsi que celle d’exploitation (OPEX) Liang et al. (2015a); Hossain et al. (2015); Oh et al. (2011); Cao et al. (2015); Moshiur et al. (2013); Mohammed et al. (2014); Soh et al. (2013). Plusieurs travaux de recherche ont été proposés afin de renforcer la virtualisation sans fil. Perez et al. (2009); Zaki et al. (2010) se sont concentrés sur la virtualisation du spectre tandis que Singhal et al. (2008); Zhu et al. (2010) ont étudié la virtualisation des différentes technologies d’accès radio (RAT). Le projet fp7-iJOIN a opté plus sur la technologie de nuage informatique (cloud computing ) comme un pilier important pour la validation (WAV) . En effet l’intégration de la technologie Cloud permet d’accéder aux différentes fonctions virtuelles via des services. Autrement dit cette technologie permet de délocaliser les données et les applications sur des infrastructures dématérialisées (data center) accessibles depuis Internet.
De plus, nous tenons à préciser que la technologie de virtualisation (WAV) peut facilement exploiter les différents services déjà existants et qui sont à savoir : 1) logiciel en tant que service (SaaS) : permet aux clients d’utiliser les applications d’un exploitant et qui sont déployées sur une infrastructure de nuage. Généralement, ces applications sont accessibles à partir de différents périphériques clients à travers des interfaces clients simples. Ainsi, les clients n’ont plus de soucis de gérer les serveurs, les systèmes d’exploitation, et le stockage ; 2) plateforme en tant que service (PaaS) : permet aux clients de développer des applications à partir d’outils de programmation disponible sur le nuage tels que : Google AppEngine et Microsoft Azure. La plateforme permet aux clients de gagner en flexibilité ; 3) infrastructure en tant que service (IaaS) : ce modèle de service fournit aux clients les ressources informatiques de base telles que : le stockage, les réseaux et éventuellement les systèmes d’exploitation. L’intégration du SDN (Software Defined Networking) permet aussi de rendre la virtualisation (WAV) plus intéressante grâce à son efficacité de rendre le réseau plus intelligent Karagiannis et al.; Lin et al. (2014); Rahman et al. (2015c).
En effet, le principe fondamental du SDN se base sur la séparation entre le plan de contrôle et le plan de données Rahman et al. (2015b). Cette décomposition permet de rendre le réseau programmable en gérant de façon dynamique les ressources réseaux ainsi que la qualité de service(QoS) exigée par les abonnés. OpenRoads Yap et al. (2010) est l’un des premiers travaux de virtualisation qui intègre la technologie SDN de sorte que plusieurs réseaux virtuels (VNs) sont déployés au niveau des switches qui intègrent un FlowVisor Sherwood et al. (2009) afin de gérer l’isolation entre les VNs. SoftRAN Gudipati et al. (2013) propose une architecture logicielle centralisée afin de faire le contrôle des stations de base distribuées dans une zone géographique. Ce travail consiste à intégrer un contrôleur central programmable au sein d’une seule station de base afin de faire le contrôle. MobileFlow Pentikousis et al. (2013) est utilisé afin d’intégré SDN lors de l’implémentation du coeur de réseau LTE. Dans cette proposition, les moteurs d’acheminement MobileFlow (MFFE) intègrent différents protocoles de tunneling tels que l’encapsulation / décapsulation GTP-U, GRE, etc. CellSDN Li et al. (2012) est une stratégie de déploiement de réseau cellulaire basée sur SDN. Cette stratégie se base sur CellVisor qui est une extension de FlowVisor Sherwood et al. (2009) afin de faire le découpage des réseaux cellulaires. Dans ce contexte, plusieurs modèles de virtualisations sans fil (WAV) ont été développés et sont utilisés afin de trouver un équilibre entre la satisfaction des abonnés ainsi que le coût de déploiement des infrastructures réseau. Le choix d’un cadre de virtualisation est un grand défi puisque chaque modèle est caractérisé par un coût (CAPEX / OPEX) et une QoS bien spécifique.
La virtualisation locale
L’architecture de la virtualisation locale (LVN) est une extension améliorée des BSs-LTE. En effet, le principe du LVN consiste à faire une subdivision de l’ensemble des ressources d’une BS-LTE en un ensemble de tranches afin de créer des stations de base virtuelles (VBSs). La Fig.1.3 illustre un exemple d’architecture LVN. La BS-LET virtualisée est appelée une super station de base (SBS). Chaque SBS intègre un orchestrateur (entité logicielle) afin de gérer de façon optimale les différentes VBSs. Il est important de noter que chaque SBS peut supporter plusieurs technologies d’accès radio multi-RAT (WiFi, 4G/OFDMA, 3G, etc.) ce qui n’est pas le cas pour les BSs-LTE (Fig.1.4). 19 L’orchestrateur est le composant le plus important dans l’architecture de la SBS (Fig.1.4). En effet, il est responsable de la création des VBSs en prenant en considération la disponibilité des ressources physiques limitées de la SBS. De plus, il est aussi capable de faire une gestion dynamique des ressources en mettant à jour sa base de connaissance en cas de libération de ressources.
Dans la pratique, une BS traditionnelle LTE est exploitée par un seul exploitant, par conséquent, toutes les ressources physiques ainsi que les équipements radio sont exploités et gérés par cet exploitant. Par contre, dans une SBS, plusieurs exploitant peuvent coexister virtuellement sur la même SBS. Par conséquent, toutes les ressources de la SBS seront partagées entre les exploitants virtuels (VOs) créés par l’orchestrateur. Pour qu’un exploitant puisse exploiter correctement les ressources d’une SBS, l’orchestrateur procède dans un premier temps à la réservation des ressources physiques nécessaires pour le bon fonctionnement de l’exploitant. La réservation prend en considération l’accord de service (SLA) signé entre l’exploitant réseau virtuel (VNO) et le fournisseur d’infrastructures (InP). Si l’orchestrateur trouve suffisamment de ressources, il procède à la création d’une VBS afin de permettre à l’exploitant en question de déployer correctement son réseau. Finalement, l’orchestrateur procède à la gestion d’isolation entre les VBSs créées afin de permettre la coexistence des différents exploitants virtuels (VNOs) sur la même SBS Rahman et al. (2015a).
|
Table des matières
INTRODUCTION
CHAPITRE 1 REVUE DE LA LITTÉRATURE ET ÉTAT DE L’ART
1.1 Introduction
1.2 Réseau LTE
1.2.1 Architecture LTE
1.2.2 Dimensionnement LTE
1.2.3 Analyse de coûts LTE
1.2.4 Analyse de débit LTE
1.3 Technologie de la virtualisation
1.3.1 Environnement de virtualisation réseau
1.4 Différentes architectures de virtualisations sans fil
1.4.1 La virtualisation locale
1.4.1.1 Dimensionnement LVN
1.4.1.2 Analyse des coûts LVN
1.4.2 La virtualisation centralisée
1.4.2.1 Orchestrateur réseau NO-CVN/RVN
1.4.2.2 Dimensionnement CVN/RVN
1.4.2.3 Analyse de coûts RRHs
1.4.2.4 Analyse de coûts CPC
1.4.2.5 Analyse de coûts CVN/RVN
1.4.2.6 Analyse de débit CVN/RVN
1.4.3 Virtualisation Hybride
1.5 Virtualisation dans un contexte green field
1.5.1 Fonction d’utilité
1.5.2 Résultats obtenus
1.6 Conclusion
CHAPITRE 2 STRATÉGIE PRÉ-PLANIFIÉE DE DÉPLOIEMENT PROGRESSIF
2.1 Introduction
2.2 Principes du déploiement pré-planifié
2.3 Nouvelle fonction d’utilité pré-planifiée
2.3.1 Analyse de coût
2.3.2 Analyse de débit
2.4 Simulations
2.5 Conclusion
CHAPITRE 3 STRATÉGIE OPTIMISÉE DE DÉPLOIEMENT PROGRESSIF
3.1 Introduction
3.2 Principes du déploiement de la nouvelle stratégie optimisée
3.3 Défis de déploiement de la nouvelle stratégie optimisée
3.4 Outil d’optimisation proposé
3.5 Nouvelle fonction d’utilité à état transition
3.6 Avantages du nouvel outil d’optimisation proposé
3.7 Simulations
3.7.1 Analyse des performances du déploiement de la nouvelle stratégie optimisée
3.7.2 Évaluation des performances des différentes stratégies de déploiement progressif
3.8 Conclusion
CONCLUSION ET PERSPECTIVES FUTURES
Conclusion
Perspectives futures
LISTE DE RÉFÉRENCES
Télécharger le rapport complet