La théorie des files d’attente est à la base des mécanismes de qualité de service ou QoS (Quality of Service). En effet, en termes de réseau, la QoS est définie comme « l’effet collectif des performances d’un service qui détermine le degré de satisfaction de l’utilisateur du service » [1]. Cette définition sous-entend que la QoS est un concept totalement abstrait. Les concepteurs, opérateurs de réseaux et les fournisseurs de service préfèrent quant à eux une définition plus concrète et quantifiable. La qualité de service dans les réseaux a donc été de plus en plus associée au concept qui permet aux nouvelles applications, surtout les applications sur plateforme mobile, d’obtenir au niveau de l’expérience utilisateur la meilleure satisfaction. Dans cette optique de recherche de meilleure satisfaction, la mise en œuvre de ces applications exige des contraintes liés aux réseaux qui sont variées selon leur type, la qualité de service se traduit donc comme l’ensemble des mécanismes de traitement au niveau du réseau qui permettent de respecter les exigences pour l’ensemble des services. Son but est de fournir un système de priorisation des flux réseaux en cas de montée en charge réseau des équipements concernés, fournissant ainsi une bande passante adéquate pour certains paquets ainsi que des paramètres de latence et de gigue bien contrôlés. Le système de priorisation de flux est basé sur les concepts de la gestion de file d’attente dans chaque nœud du réseau.
Concept de la théorie des files d’attente
La théorie des files d’attente est une approche mathématique permettant d’analyser les files d’attente. Elle est basée sur l’étude des équipements téléphoniques automatiques réalisée au début du XXe siècle par l’ingénieur danois en télécommunication, A. K. Erlang. L’application de cette théorie n’a été généralisée à divers types de problèmes qu’après la Seconde Guerre mondiale. La planification et l’analyse de la capacité de service sont des thèmes traités par cette théorie .
Origine des attentes
Il peut être surprenant d’apprendre que des files d’attente se forment même dans les systèmes non congestionnés. A l’exemple d’un établissement de restauration rapide qui peut traiter en moyenne 200 commandes à l’heure voit malgré tout se former des files d’attente avec un nombre moyen de 150 commandes à l’heure. L’expression clé est « en moyenne ». Le problème vient du fait que les arrivées des clients ont lieu à intervalles aléatoires plutôt qu’à intervalles fixes et il y a aussi la notion dite heure de pointe et heure creuse. De plus, certaines commandes requièrent un temps de traitement plus long. En d’autres termes, les processus d’arrivée et de service ont un degré de variabilité élevé. Par conséquent, le système est soit temporairement congestionné (heure de pointe), ce qui crée des files d’attente, soit vide (heure creuse), parce qu’aucun client ne se présente. Donc, si le système n’est pas congestionné d’un point de vue macro (en moyenne), il l’est d’un point de vue micro (instantanément). Par ailleurs, en cas de variabilité minimale ou inexistante (arrivée selon les rendez-vous et temps de service constant), aucune file d’attente ne se forme.
Objectif de l’analyse des files d’attente
Il existe le concept de coût en théorie des files d’attente qu’il est nécessaire de décrire au préalable. Le premier concept est le coût total, qui équivaut à la somme de deux coûts : le coût associé à la capacité de service mise en place ou coût de service et le coût associé à l’attente des clients ou coût d’attente. Le coût de service est le coût résultant du maintien d’un certain niveau de service, par exemple le coût associé au nombre de caisses dans un supermarché, au nombre de réparateurs dans un centre de maintenance, au nombre de guichets dans une banque, au nombre de voies d’une autoroute, etc. En cas de ressources inoccupées, la capacité est une valeur perdue, car elle est non stockable. Les coûts d’attente sont constitués des salaires payés aux employés qui attendent pour effectuer leur travail(mécanicien qui attend un outil, chauffeur qui attend le déchargement du camion, etc.), du coût de l’espace disponible pour l’attente (grandeur de la salle d’attente dans une clinique, longueur d’un portique de lave-auto) et, bien sûr, du coût associé à la perte de clients impatients qui vont chez les concurrents. En pratique, lorsque le client est externe à l’entreprise, le coût d’attente est difficile à évaluer, car il s’agit d’un impact plutôt que d’un coût pouvant être comptabilisé. Cependant, on peut considérer les temps d’attente comme un critère de mesure du niveau de service. Le gestionnaire décide du temps d’attente acceptable, « tolérable », et il met en place la capacité susceptible de fournir ce niveau de service.
L’objectif de l’analyse des files d’attente est de minimiser le coût total en trouvant un compromis entre le coût associé à la capacité de service et le coût d’attente des clients. La figure 1.01 illustre ce concept. Notez que lorsque la capacité de service augmente, le coût de service augmente. Par souci de simplicité, nous avons illustré un coût de service linéaire. Lorsque la capacité de service augmente, le nombre de clients en attente et le temps d’attente tendent à diminuer, donc les coûts d’attente diminuent [2][3][4]. Le coût total (la somme des coûts de service et d’attente) est représenté sur le graphique par une courbe en pointillé. Ceci modélise bien le problème de la qualité de service au niveau des réseaux. En effet, les paquets transitant à travers les réseaux sont soumis à des retards. Ces retards se catégorisent en délai de propagation ou propagation delay, délai de traitement ou processing delay et délai d’attente ou queuing delay.
Les caractéristiques des systèmes de files d’attente
Plusieurs modèles d’analyse ont été conçus dans le cadre de la théorie des files d’attente. Le succès de l’analyse des files d’attente repose surtout sur le choix du modèle approprié. Plusieurs caractéristiques sont à prendre en considération :
● La population.
● Le nombre de serveurs.
● Les tendances quant à l’arrivée et au service.
● L’ordre de traitement des clients.
Il est nécessaire de procéder à l’étude de ces caractéristiques pour bien appréhender le principe.
La population
La « population » se décrit comme la source de clients potentiels dans la théorie des files d’attente. Il sera judicieux de faire la distinction entre deux situations possibles. Dans une première situation, la population est considérée comme infinie, c’est-à-dire que le nombre potentiel de clients est infiniment grand en tout temps. Ces clients sont également supposés provenir de toutes les régions possibles. Dans un deuxième cas, la population est considérée finie, donc le nombre de clients potentiels est limité.
Le nombre de serveurs
La capacité de service dépend de la capacité de chaque serveur et du nombre de serveurs disponibles. Le terme « serveur » représente ici la ressource et, en général, on suppose qu’un serveur ne traite qu’un client à la fois. Les systèmes de files d’attente fonctionnent avec serveur unique ou serveurs multiples (plusieurs serveurs travaillant en équipe constituent un serveur unique, par exemple une équipe chirurgicale). Les exemples de systèmes de files d’attente avec serveur unique sont nombreux : les petits magasins avec une seule caisse. Les systèmes à multiples serveurs sont les banques, les billetteries d’aéroports, les garages et les stations service.
Les tendances quant à l’arrivée et au service
Les files d’attente résultent de la variabilité des tendances d’arrivée et de service. Elles se forment parce que le degré élevé de variation dans les intervalles entre les arrivées et dans les temps de service cause des congestions temporaires. Dans plusieurs cas, on peut représenter ces variations par des distributions théoriques de probabilités. Dans les principaux modèles utilisés, il sera plus approprié de supposer que le nombre d’arrivées dans un intervalle donné suit la loi de Poisson, alors que le temps de service suit une loi exponentielle.
|
Table des matières
INTRODUCTION
CHAPITRE 1 THEORIE ET SYSTEMES DES FILES D’ATTENTE
1.1 Introduction
1.2 Concept de la théorie des files d’attente
1.2.1 Origine des attentes
1.2.2 Objectif de l’analyse des files d’attente
1.2.3 Les caractéristiques des systèmes de files d’attente
1.2.3.1 La population
1.2.3.2 Le nombre de serveurs
1.2.3.3 Les tendances quant à l’arrivée et au service
1.2.3.4 L’ordre de traitement des clients
1.3 File d’attente à priorités strictes avec préemption
1.3.1 Description du problème
1.3.2 Formalisation mathématique
1.3.2.1 File d’attente avec impatience
1.3.2.2 Variables de performance
1.3.3 Règles de priorité
1.3.4 Cas d’une file à une classe de clients
1.3.4.1 File ?/?/1 + ?
1.3.4.2 File ?/?/1 + ?
1.3.4.3 Encadrement de la probabilité de perte d’un client
1.3.5 Cas d’une file à deux classes de clients
1.3.5.1 Cas particulier
1.3.5.2 Cas avec priorité stricte et avec préemption
1.3.5.3 Mesures de performances
1.4 Conclusion
CHAPITRE 2 ARCHITECTURE LTE/EPC
2.1 Introduction
Notions de plan usager et de plan de contrôle
2.2 Présentation générale de l’architecture
2.3 Le réseau cœur
2.3.1 La Serving Gateway (S-GW)
2.3.2 Le Mobility Management Entity (MME)
2.3.3 La Packet Data Network Gateway (P-GW ou PDN-GW)
2.3.4 Le Home Subscriber Server (HSS)
2.3.5 Le Policy Control and charging Rules Function (PCRF)
2.4 Le réseau d’accès
2.5 L’architecture protocolaire
2.5.1 Le plan usager
2.5.2 Le plan de contrôle
2.6 Le bearer EPS
2.6.1 Bearer avec débit garanti
2.6.2 Bearer sans débit garanti
2.7 Les interfaces terrestres du LTE
2.7.1 Structure protocolaire des interfaces S1 et X2
2.7.2 L’interface S1
2.7.2.1 Le plan usager (S1-U)
2.7.2.2 Le plan de contôle (S1-MME)
2.7.3 L’interface X2
2.7.3.1 Le plan usager (X2-U)
2.7.3.2 Le plan de contrôle (X2-C)
2.8 L’interface radio
Plan usager et plan de contrôle
2.9 Conclusion
CHAPITRE 3 QUALITE DE SERVICE EN LTE/EPC
3.1 Introduction
3.2 La notion de bearer
3.2.2 Le bearer EPS
3.2.3 Bearer par défaut et bearer dédié
3.2.3.1 Le bearer par défaut (connectivité générique)
3.2.3.2 Le bearer dédié (besoin de QoS spécifique)
3.3 Les paramètres de QoS
3.3.1 Le QoS Class Identifier (QCI)
3.3.2 L’Allocation and Retention Priority (ARP)
Principe
3.3.3 Les paramètres de débit
3.3.3.1 Le Guaranteed Bit Rate (GBR)
3.3.3.2 Le Maximal Bit Rate (MBR)
3.3.3.3 Les débits agrégés (UE-AMBR et APN-AMBR)
3.4 Politique de gestion de la QoS
3.4.1 L’AF ou Application Function
3.4.2 SPR ou Subscription Profile Repository
3.4.3 PCRF ou Policy Charging Rules Function
3.4.4 PCEF ou Policy Charging Enforcement Function
3.4.5 TDF ou Traffic Detection Function
3.4.6 OCS ou Online Charging System
3.5 Conclusion
CONCLUSION