L’architecture physique des centres de données
Un centre de données est généralement organisé dans des rangées « baies » où chaque rangée contient des actifs modulaires tels que les serveurs, les commutateurs, des unités de stockage « briques », ou des appareils spécialisés comme représentés sur la Figure 2.2 une baie standard de hauteur 78 po, de largeur de 23 à 25 po et de 26 à 30 po de profondeur. Typiquement, chaque baie prend un certain nombre de « baies modulaires » actives insérées horizontalement dans les baies. L’épaisseur de l’actif est mesurée en utilisant une unité appelée » U » qui est de 45 mm (ou environ 1,8 po) La majorité des serveurs possèdent des processeurs simple ou double et peuvent s’adapter à la taille de 1U, mais les plus grands (par exemple, multiprocesseurs) peuvent exiger 2U ou une taille de plus. Un rack standard peut prendre un total de 42 actifs à 1U lorsqu’il est entièrement rempli. Il est aujourd’hui plus intéressant d’utiliser les services ainsi que la qualité d’un centre de données plutôt que d’investir dans du matériel propre.
Le plus souvent, les armoires sont placées sur des planchers en hauteur permettant d’y passer les câbles réseau, l’alimentation électrique, mais également une circulation de l’air par le sol. La température d’un centre de données doit être constante à 20 °C. Elle est assurée par une climatisation classique ainsi que des systèmes de refroidissement par eau dans les villes plus chaudes. Lorsque le local est situé dans une ville où la température moyenne est proche ou en dessous des 20 °C souhaités, un système de récupération d’air froid extérieur pourra être utilisé. Cela permet des économies d’énergie, devenu un nouvel objectif d’évolution (Green Computing). La disposition des serveurs en allées a également été pensée de manière à répartir la chaleur qu’ils dégagent. L’alimentation électrique peut être assurée par plusieurs circuits différents et complétée par des systèmes de batteries de secours (UPS) ou de générateurs. L’objectif est d’alimenter les systèmes selon le principe de zéro coupure (No-Break). Si malgré tout un début d’incendie devait se déclarer, il serait immédiatement neutralisé à l’aide de gaz inerte ou de micros particules d’eau azotée. La technique du gaz inerte est également utilisée dans les musées, car elle n’endommage pas les alentours et peut être utilisée tout en maintenant le circuit électrique actif.
En outre, Foh et al. (2012) ont montré que la réduction de la consommation d’énergie peut être obtenue en optimisant les usages des serveurs, du stockage et des réseaux. Pour cette finalité, plusieurs techniques peuvent être envisagées pour optimiser les usages de serveurs. Des techniques telles que l’utilisation des serveurs et la virtualisation sont quelques exemples qui peuvent conduire à des gaspillages faibles dans l’utilisation des ressources du serveur et de partage élevé de l’infrastructure commune. De plus, Foh et al. (2012) ont prouvé que les périphériques de stockage sont un autre facteur principal de la consommation d’énergie. Les dispositifs de stockage génèrent aussi une quantité importante de chaleur qui doit être examinée pour l’énergie de refroidissement. La virtualisation du stockage et de placement optimale des données dans des dispositifs de stockage hétérogènes seront des solutions possibles pour améliorer les performances d’accès au stockage et à accroître l’utilisation du stockage. Les centres de données sont formés par des serveurs, des routeurs, des commutateurs, etc. En outre, Zhang, Cheng et Boutaba (2010) ont prouvé que l’approche en couches est la base pour la conception de l’architecture réseau qui est testée sur plusieurs centres de données déployés.
Cette approche est illustrée à la figure 1.2 La couche d’accès est au niveau de laquelle les serveurs sont connectés au réseau. Alors que la couche d’agrégation fournit des fonctionnalités importantes telles que le service de domaine, service de location, service d’équilibrage de charge (load balancing). Finalement, la couche de noyau qui fournit une connectivité aux plusieurs commutateurs d’agrégation. Les routeurs de la couche noyau gèrent le trafic entrant et sortant de centre de données. Un projet de virtualisation concerne aussi les centres de données, puisque différents aspects de dimensionnement tels que la place au sol, la consommation électrique (et donc la climatisation) vont être différents par rapport à l’hébergement de serveurs physiques dédiés. Également, on peut ajouter que des demandes spécifiques peuvent accompagner la mise en oeuvre de serveurs de virtualisation, notamment en ce qui concerne l’architecture réseau (avec des réseaux dédiés pour les clusters ou les communications avec les SAN / NAS) où le positionnement dans la salle machine des serveurs et baies de stockage (armoires de stockage).
Exemples de quelques entreprises
Plusieurs grandes entreprises dans le monde telles que Google©, IBM©, Microsoft©, DELL© et Amazon© définissent des critères en commun pour mettre en place un centre de données. Avant de mettre en place un centre de données, il faut penser tout d’abord à satisfaire les besoins des clients tout en assurant la haute disponibilité des services, des données sécurisées, un temps de réponse minimal et un transfert rapide des données. Ces finalités seront obtenues tout en définissant dès le départ une bonne localisation pour un centre de données. De même, la définition des critères pour le choix de meilleures localisations pour les centres des données diffère selon les priorités des entreprises.
Google est l’une des grandes entreprises dans le monde et possède un grand nombre d’utilisateurs et ce nombre augmente jour après jour avec l’apparition de ses nouvelles applications. Afin de satisfaire ces besoins, Google essaye d’installer des centres de données partout dans le monde. En effet, Google installe un centre de traitement de données en Belgique. Ce site belge a été choisi en raison de critères environnementaux. Également, Dumout (2007) prouve que Google consacre 250 millions d’euros à la construction d’un centre de traitement de données informatique en Belgique, à St Ghislain. En effet, le choix de la Belgique s’est fait pour des raisons essentiellement d’aménagement du territoire. Le terrain est proche d’un point d’eau, car Google utilise un système de refroidissement par évaporation pour les installations informatiques. Ce système est plus écologique que les systèmes classiques. Dans le cas de St Ghislain, le lieu choisi se situe donc tout près d’un canal; les autres critères reposaient sur la proximité d’une source d’énergie et sur le bon raccordement de la zone en fibre optique.
En plus, d’après (Google, 2012a), la construction d’un premier centre de données en Asie du Sud-est représente une étape importante pour l’entreprise. En effet, le taux quotidien de nouveaux utilisateurs d’Internet y est le plus élevé au monde. En outre, Google (2012a) prouve que le choix de Singapour pour mettre en place le centre de données est en raison des critères suivants : une infrastructure fiable, une main-d’oeuvre expérimentée, un engagement envers des réglementations transparentes et favorables aux entreprises. De même, Singapour possède une économie Internet dynamique et la ville se situe au centre de l’un des marchés Internet connaissant la croissance la plus rapide au monde. Également, Google choisit les localisations où se trouve l’énergie renouvelable pour la mieux exploiter et par conséquent diminuer les coûts d’énergie consommée. Dans ce cas, Google a recours à l’énergie renouvelable qui est le critère le plus important ces dernières années. En effet, d’après Google (2012b), l’entreprise a signé un accord avec ‘Grand River Dam Authority’ (GRDA), pour fournir au centre de données de Google situé dans le comté de Mayes (Oklahoma), environ 48 MW d’énergie éolienne.
Les contraintes réglementaires sur l’exportation des données Haas (2013) indique que les récentes révélations de l’existence du programme PRISM qui est un programme de surveillance mis en place aux États-Unis et permettant l’accès par les autorités américaines aux données stockées dans l’infonuagique ont inquiété pouvoirs publics et citoyens. Pourtant, les entreprises doivent également considérer la localisation des données traitées dans l’infonuagique comme l’un des points essentiels qui doivent être contrôlés lorsqu’elles souhaitent bénéficier de ce type de services pour externaliser le traitement de leurs données. En effet, d’une part, il existe des contraintes règlementaires encadrant l’exportation de données dans l’infonuagique et, d’autre part, la localisation des données peut affecter le cadre légal applicable à leur traitement, y compris pour un éventuel accès à ces données par les autorités gouvernementales. Dans le même contexte, Haas (2013) indique que le secteur bancaire est ainsi soumis aux dispositions du règlement n°97-02 du 21 février 1997 relatif au contrôle interne des établissements de crédit et des entreprises d’investissement.
Il impose notamment des contrôles et formalités supplémentaires aux prestataires de services d’investissement qui ont recours à un prestataire situé dans un État non membre de la Communauté européenne. Dans le secteur de la santé, par exemple, l’hébergement de données de santé à caractère personnel sur support informatique est également strictement encadré. Cette activité est soumise à l’obtention d’un agrément, délivré en contrepartie de garanties en termes d’intégrité, de sécurité et de confidentialité des données traitées. Le dossier d’agrément doit notamment préciser le lieu où l’hébergement sera effectué, et toute modification de ce lieu devra faire l’objet d’une notification auprès du ministre chargé de la santé.
|
Table des matières
INTRODUCTION
CHAPITRE 1 REVUE DE LITTÉRATURE
1.1 Introduction
1.2 Introduction aux centres de données
1.2.1 L’architecture physique des centres de données
1.2.2 Les niveaux de redondance des centres de données
1.2.3 Les services des centres de données
1.3 Les problèmes de localisation des centres de données
1.3.1 Les critères de sélection des localisations
1.3.1.1 Exemples de quelques entreprises
1.3.1.2 Les critères de sélection des localisations : Généralisation
1.3.1.3 Le coût d’énergie
1.3.1.4 Le climat
1.3.1.5 Les catastrophes naturelles
1.3.1.6 La pollution
1.3.1.7 L’interférence électromagnétique
1.3.1.8 L’énergie renouvelable
1.3.1.9 Le transport
1.3.2 Les contraintes de transfert des données
1.3.2.1 Les contraintes réglementaires sur l’exportation des données
1.3.2.2 Transfert des données en dehors du Canada
1.3.3 Modélisation des problèmes de localisation
1.3.3.1 Texte introductif
1.3.3.2 Localisation des centres de données
1.4 Conclusion
CHAPITRE 2 MODÉLISATION MATHÉMATIQUE
2.1 Introduction
2.2 Les hypothèses
2.3 Approche d’optimisation proposée
2.3.1 Description du modèle mathématique
2.3.2 Les ensembles et les indices
2.3.3 Les paramètres
2.3.4 Les variables de décision
2.3.5 Modèle d’optimisation
2.4 Conclusion
CHAPITRE 3 EXPÉRIMENTATION, ANALYSE ET DISCUSSION
3.1 Introduction
3.2 Caractérisation des localisations
3.2.1 Les critères de localisation
3.3 Étude de cas
3.3.1 Environnement de programmation
3.3.2 Localisation des centres de données
3.3.3 Temps d’exécution des méthodes de résolution
3.4 Minimiser les coûts
3.5 Les serveurs de secours « backup »
3.6 Indicateur d’efficacité énergétique
3.7 Temps de réponse des services Internet
3.8 Évaluation de l’approche proposée
3.9 Conclusion
CONCLUSION
RECOMMANDATIONS
ANNEXE I DATACENTER LOCATION FOR INTERNET SERVICES IN THEBPROVINCE OF QUEBEC
ANNEXE II LES CATÉGORIES DE L’EFFICACITÉ ÉNERGÉTIQUE (PUE)
ANNEXE III COMPARAISON DES PROFILS DE L’ÉNERGIE D’UN CENTRE DE DONNÉES ET D’UN BÂTIMENT TYPIQUE
LISTE DE RÉFÉRENCES BIBLIOGRAPHIQUES
Télécharger le rapport complet