Modèle hiérarchique d’allocation des ressources dans les systèmes Edge computing

Le monde des technologies de l’information et de la communication (TIC) est en constante évolution. Au debut de l’ere numerique, la recherche s’était focalisée sur le développement des performances des ordinateurs et sur la manière d’obtenir leur universalité avec l’internet. Aujourd’hui, le cloud computing est devenu le nouveau paradigme dans le monde des TIC. Il permet aux particuliers et aux entreprises d’externaliser leurs ressources informatiques vers des serveurs distants. De nombreuses autres technologies ont émergé du cloud computing : mobile cloud computing (MCC), Big Data, Internet des objets, etc. Avec l’adoption du MCC, les ressources peuvent être stockées sur des appareils mobiles (ordinateurs portables, tablettes, smartphones, etc.). Toutefois, avec le développement rapide des applications mobiles et de l’internet des objets, les technologies traditionnelles de cloud computing sont soumises à de grands défis. En particulier, la latence élevée due à la centralisation des ressources informatiques sur internet (augmentation de la distance entre les appareils mobiles et les ressources informatiques), l’utilisation excessive des batteries des appareils mobiles des utilisateurs, la dégradation des performances, etc., d’où l’avènement du système edge computing (EC).

En effet, le edge computing héberge l’infrastructure du cloud à la périphérie du réseau mobile. Donc elle assure une proximité des ressources avec les utilisateurs. En son sein, le EC est composé du fog computing, du cloudlet et du multi-access edge computing (MEC). Il a été conçu pour résoudre les problèmes rencontrés par le cloud computing à savoir, la durée de vie des batteries des appareils mobiles, le temps de réponse des applications, la gestion des ressources, etc.

Cependant, ces dernières années, nous avons assisté à une évolution exponentielle des appareils mobiles dans les systemes edge computing. Cela a entraîné une augmentation considérable de la latence sur les serveurs decentralisés. D’autre part, avec l’évolution vers la technologie 5G, l’un des objectifs initiaux du système edge computing, qui était principalement de réduire la latence et d’augmenter le débit, ne peut plus être atteint dans certaines situations, notamment aux heures de pointe où le trafic est très élevé. Par ailleurs, certains types de services n’éprouvent pas le besoin d’être traités sur internet (cloud computing) car ils ne nécessitent pas beaucoup de ressources. En outre, certaines applications très sensibles à la latence ne peuvent plus être hébergées sur ces serveurs du système edge computing en raison de la distance qui les sépare de l’utilisateur. Au-delà de l’augmentation de la latence, en parallèle avec l’avènement de ces nouvelles technologies précitées, un véritable problème se pose sur la gestion des ressources surtout dans les systèmes décentralisés (edge computing), qui ont des ressources très limitées comparées au cloud traditionnel (cloud computing). De plus, on constate une surcharge considérable au niveau des serveurs du edge computing due à une mauvaise répartition des charges, surtout aux heures de pointe dans les zones où le trafic est très important. Ce qui va poser un problème important pour traiter les tâches très sensibles à la latence. Ainsi, cette situation entraîne un problème d’équilibrage des charges sur les architectures décentralisées (edge computing), même si elles ont été proposées pour réduire la latence (grâce à leur proximité avec les équipements des utilisateurs).

Contribution

Dans la première contribution de nos travaux, nous proposons un nouveau concept du système edge computing, à trois niveaux, appelé Home Edge Computing (HEC) dans le but de réduire la latence coté communication réseau. En plus de jouer les mêmes rôles que le Multi-access Edge Computing (MEC), le Home Edge Computing permet d’effectuer un traitement local de certains types de services, réduisant ainsi la latence et prolongeant la durée de vie des batteries des équipements de l’utilisateur. De plus, avec le système sans fil (microcellule) qui est intégré dans son architecture, le HEC permet de réduire considérablement la charge de travail du Mobile Edge Computing grâce à son système hiérarchique à trois couches, à savoir le serveur home (cloud local), le serveur MEC et le cloud central. De plus, le système HEC est une nouvelle architecture permettant d’avoir un dispositif de stockage et de traitement des données à proximité des utilisateurs, integré dans un serveur HEC. Il permet également de réduire la charge de travail avec l’intregration d’une station de base localisée le serveur MEC car certains équipements utilisant le réseau sans fil, ayant une mobilité restreinte, vont se connecter au réseau HEC via le serveur, qui est constitué d’une micro-cellule. Ce qui permet aussi de réduire la charge de travail de la station de base située sur le MEC, couvrant ainsi une plus grande portée. Ainsi, après simulation, le délai de communication réseau a été réduit, comparé au solution cloud computing , à 94.82% pour le système edge computing et à 5.17% pour le Home Edge Computing par rapport à la communication réseau.

La deuxième contribution de nos travaux concerne l’intégration de la nouvelle architecture HEC dans deux solutions d’étude de cas. D’une part pour les réseaux nationaux de recherche et d’éducation qui permet aux laboratoires des universités d’avoir des serveurs locaux pour leur simulation, d’effectuer leur simulation beaucoup plus rapidement afin de gagner beaucoup plus de temps comparé a l’architecture traditionnelle du NREN. D’autre part, un système pour l’agriculture et de l’élevage intelligents. Grâce à ce système, nous allons d’abord mettre en place une agriculture intelligente dans les zones pastorales, avec l’adoption des technologies adaptées, telle que le Lora, mais aussi de régler les conflits entre agriculteurs et éleveurs.

Dans la troisième contribution de nos travaux, dû à la limitation considérable des ressources sur les serveurs home, nous proposons par la suite une méthode appelée la technique de HEC-Clustering-Balance. Cette technique permet de réduire considérablement le temps de traitement des requêtes envoyées par les utilisateurs tout en utilisant efficacement les ressources du serveur HEC, du serveur MEC et du cloud central sur l’architecture proposée durant nos travaux de recherche, . la technique proposée permet également d’utiliser les serveurs HEC qui ne sont pas sollicités tout le temps (équilibrage de charge). La méthode proposée gère la structure Cloud-MEC-HEC sous forme de graphe. Chaque MEC, appelé cluster-head, gère un sous-graphe, c’est-à-dire un cluster composé de serveurs HEC. Sur chaque cluster (3-TIER), il y a un cluster-head qui constitue la couche supérieure ou 2-TIER de l’architecture HEC. Ensuite, ils sont connectés entre eux d’une part et avec le cloud central d’autre part.

Généralités sur les systèmes Cloud-Edge Computing

Ces dix dernières années, le cloud computing a connu de grands progrès dans le monde de la recherche mais aussi dans les industries avec l’évolution des nouvelles technologies de l’information et de la communication (NTIC). Ainsi, avec les challenges liés à l’apparition des objets connectés (IoT), aux technologies futures (5G) et aux exigences des applications en temps réels des utilisateurs, le besoin de migrer vers un système de cloud décentralisé (edge computing) est devenu une nécessité. Ces avancées stimulent les efforts récents pour adopter ces technologies par edge computing afin d’améliorer encore l’efficacité et de réduire la latence afin de répondre aux besoins de ces applications.

Le cloud computing

Définition et concept

L’informatique en nuage (cloud computing) fait référence à l’externalisation des processus informatiques d’une entreprise chez un fournisseur prenant en charge les ressources matérielles et logicielles nécessaires au fonctionnement du système informatique de son client. Il existe autant de définitions que de points de vue. Ainsi les experts donneront à l’informatique en nuage des définitions diverses selon qu’ils viennent de la sécurité, du web, de l’infrastructure, etc. L’institut national des normes et de la technologie (NIST) propose une définition qui se veut exhaustive : “Le cloud computing est un modèle qui permet d’accéder rapidement à un pool de ressources informatiques mutualisées, à la demande (serveurs, stockage, applications, bande passante, etc.), sans forte interaction avec le fournisseur de service […]” [MG`11] Selon cet organisme, l’informatique en nuage s’appuie sur cinq caractéristiques essentielles :
— un accès libre à la demande : l’utilisateur consomme des services (capacité de stockage, de calcul, plateforme de développement, etc.) dans le cloud selon ses besoins et ceci de façon automatique, c’est à dire sans nécessiter d’interaction humaine avec le fournisseur de services ;
— le service doit être accessible via un réseau : tous les services proposés aux utilisateurs doivent être disponibles sur le réseau et accessibles via des mécanismes standards favorisant l’utilisation des plateformes hétérogènes (par exemple téléphones mobiles, tablettes, ordinateurs portable, poste de travail, etc.);
— une mutualisation des ressources : les ressources informatiques du fournisseur sont agrégées et mises à la disposition des consommateurs sur un modèle multilocataires, avec une attribution dynamique des ressources physiques et virtuelles en fonction de la demande. Les consommateurs n’ont généralement aucune connaissance ni aucun contrôle de l’endroit exact où sont stockés les données. Toutefois, ils peuvent parfois imposer l’emplacement à un niveau plus haut d’abstraction (par exemple le pays, le centre de données, etc.) ;
— un redimensionnement rapide : les consommateurs peuvent rapidement ajouter ou enlever des ressources informatiques en fonction de leurs besoins. Pour le consommateur, les ressources informatiques mises à disposition par le fournisseur semblent illimitées et peuvent être consommées en quantité à tout moment ;
— le service doit être mesurable : les systèmes contrôlent et optimisent de façon automatique l’utilisation des ressources par rapport à une moyenne estimée du service consommé.

Les modèles de déploiement du cloud computing

Le cloud computing repose sur des ressources physiques qui peuvent être situées chez le client ou chez un prestataire, être partagées ou non. Ainsi, les utilisateurs du cloud peuvent choisir entre se construire leurs propres infrastructures ou en louer une chez un fournisseur de service spécialisé, bénéficier de services plus ou moins étendus proposés par ces fournisseurs ou encore combiner ces deux options. Ainsi, selon les approches des entreprises qui se distinguent trois formes ou typologies de cloud computing :

Les Clouds privés 

Les clouds privés mettent un ensemble de ressources à la disposition exclusive d’une seule entreprise. Les services de ces clouds sont dédiés aux besoins propres de l’entreprise cliente. Ce type de cloud offre aux entreprises des services qui leur permettront d’optimiser et de mieux maîtriser l’utilisation de leurs ressources informatiques. Les problèmes d’intégration et les exigences de sécurité pour les données et applications critiques sont parmi les raisons qui poussent les utilisateurs à adopter les clouds privés. Avec les clouds privés, les utilisateurs ont plus de contrôle de leurs applications et données que les autres typologies de cloud. Ils sont souvent gérés en interne par une entreprise pour ses besoins. Dans ce cas, les ressources informatiques sont géographiquement situées dans le périmètre de l’entreprise. Le service informatique est alors vu comme un fournisseur de services et les entités de la société comme les clients de ce service. Mais ils peuvent aussi être gérés par un prestataire externe qui met à disposition du client (l’entreprise) un ensemble de services à la demande de ce dernier. Les clients louent ces services à la demande, selon leurs besoins. On parle dans ce cas de clouds privés virtuels. Dans ce dernier cas, une partie des services externalisés est prise en charge par un prestataire de confiance. Par ailleurs, une même infrastructure d’un prestataire peut contenir plusieurs clouds privés virtuels appartenant à différents clients. Chacun d’eux peut accéder uniquement à son cloud privé via son propre réseau. Avec le cloud privé virtuel, le lieu d’hébergement est connu par l’entreprise cliente et se trouve souvent dans le même pays que cette dernière. Cela permet surtout d’éviter des litiges juridiques dus aux éventuelles différences de législation en vigueur dans chaque pays hébergeur.

Cependant, la mise en place d’un cloud privé exige un investissement initial et des coûts de maintenance pour les clients. Elle nécessite également des compétences et des locaux adaptés. Même si les préoccupations en matière de sécurité et de contrôle de données sont dissipées avec les clouds privés (puisque le client conserve le contrôle total des données et des applications), le cloud privé demande des efforts considérables en cas d’évolution des besoins.

Les Clouds publics 

Les clouds publics mettent l’ensemble des ressources à disposition des clients via l’internet public. Les ressources informatiques des différents clients peuvent être hébergées dans n’importe quel datacenter du prestataire voire passer d’un datacenter à l’autre pour garantir ainsi la qualité de service selon les contrats de niveau de services ou optimiser l’utilisation des ressources du prestataire. Les clients consomment ainsi les services clouds sans se soucier des emplacements où sont hébergées leurs données. Ces emplacements sont gérés par des fournisseurs de services ; la puissance de calcul et de stockage est alors mutualisée entre les différents clients. C’est ce type de cloud qui est utilisé pour la fourniture d’outils de bureautique en ligne comme google apps ou office 365, pour la mise à disposition d’infrastructures virtuelles comme ovh ou cloudwatt, etc.

La mise en place d’un cloud public demande de lourds investissements uniquement du côté du fournisseur de services. Les clients n’ont pas besoin d’investissement initial pour utiliser les clouds publics. Ils sont uniquement facturés pour les ressources informatiques et/ou services qu’ils consomment. Cette catégorie de clouds offre une flexibilité et une facilité d’utilisation qui constituent la solution idéale pour les utilisateurs qui ont besoin d’infrastructures susceptibles de s’adapter à une charge fluctuante. Elle permet de surcroître une économie d’échelle significative et permet de développer rapidement des applications tout en limitant un investissement dans les ressources informatiques et en même temps les risques. Néanmoins, des inquiétudes persistent concernant la sécurité et la protection de la confidentialité des données dans un cloud public. En effet, ce cloud s’appuie et communique selon les politiques de sécurité du fournisseur pour garantir la sécurité des données de ses clients. Le cloud public offre un maximum de flexibilité et est souvent moins cher qu’un cloud privé pour le même service mais c’est un modèle moins sécurisé que celui du cloud privé.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
1 Généralités sur les systèmes Cloud-Edge Computing
1.1 Introduction
1.2 Le cloud computing
1.2.1 Définition et concept
1.2.2 Les modèles de déploiement du cloud computing
1.2.3 Les niveaux de services offerts par le cloud computing
1.2.4 Les différents types de stockage dans le Cloud
1.2.5 Le Mobile cloud computing
1.3 Le système edge computing
1.3.1 Différences existantes entre le cloud et le edge computing
1.3.2 Définition et enjeux
1.3.3 Concept et technologie
1.4 Conclusion
2 Étude des techniques d’allocation des ressources dans les systèmes decentralisés 
2.1 Introduction
2.2 Les stratégies de déchargement ou de transfert
2.2.1 Le déchargement total ou complet
2.2.2 Le déchargement partiel
2.3 Le contrôle d’admission
2.3.1 Système de contrôle d’admission par niveau
2.3.2 Système de contrôle d’admission par priorité
2.4 Les techniques d’allocation des ressources côté radio
2.4.1 Schéma d’allocation des ressources en fonction de la qualité de service
2.4.2 Schéma d’allocation dynamique des ressources entre les couches
2.4.3 Le contrôle de la puissance
2.5 Les techniques d’allocation des ressources côté serveur
2.5.1 La technique de stockage et de placement de contenu
2.5.2 La technique de Benchmaking
2.5.3 La technique de computing
2.5.4 La technique de clustering
2.5.5 La technique d’équilibrage de charge
2.6 Problématique et objectifs de recherche
2.6.1 Problématique
2.6.2 Objectifs de recherche
2.7 Conclusion
3 Home Edge Computing (HEC) : Conception d’une nouvelle technologie du système distribué (Edge Computing) pour atteindre une latence ultra-faible 
3.1 Introduction
3.2 Avantages et limitations des systèmes edge computing
3.2.1 Avantages des systèmes edge computing
3.2.2 Limites des systèmes edge computing
3.3 Le besoin de proposer une nouvelle architecture du système edge computing
3.4 Home Edge Computing (HEC)
3.4.1 HEC : concepts et définitions
3.4.2 Architecture proposée du système HEC
3.5 Description formelle de l’architecture home edge computing (HEC)
3.5.1 La couche contrôle du flux de données
3.5.2 La couche contrôle logiciel
3.5.3 La couche architecture
3.6 Cas d’utilisations
3.6.1 La réalité augmentée
3.6.2 L’internet des tactiles
3.6.3 La réalité virtuelle
3.7 Environnements de simulation et validation expérimentale
3.7.1 OMNeT++
3.7.2 OPNET
3.7.3 CloudSim
3.7.4 EdgecloudSim
3.7.5 Les paramètres de simulation
3.7.6 Résultats et discussions
3.8 Conclusion
4 Utilisation de HEC dans les réseaux NREN et dans l’agriculture intelligente
4.1 Introduction
4.2 Proposition de méthode hiérarchique pour l’exécution dynamique des tâches sur les NREN
4.2.1 NREN : concept et définition
4.2.2 Les différentes méthodes existantes de planification pour l’exécution des Jobs
4.2.3 Les travaux connexes sur les techniques de planifications des tâches dans les systèmes edge cloud
4.2.4 Une nouvelle méthode d’éxecution hierarchique basée sur une architecture NREN
4.3 Architecture intelligente et durable pour l’agriculture et l’élevage
4.3.1 Une nouvelle architecture basée HEC pour une argricuture intelligente
4.3.2 Validation éxpérimentale
4.4 Conclusion
CONCLUSION

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *