Les tendances de l’électronique embarquée

Les tendances de l’électronique embarquée

Le domaine des applications embarquées a beaucoup évolué ces dernières décennies et ce notamment grâce à la forte demande et à la démocratisation des applications mobiles faible coût. Il y a 40 ans le premier téléphone portable commercialisé, le Motorola DynaTAC 8000X [1], pesait près de 800 grammes et avait une autonomie de 60 minutes en communication. Réservé à une élite, il ne possédait qu’une seule fonctionnalité : la téléphonie. Aujourd’hui, les smart-phones, qui intègrent de nombreuses fonctionnalités en sus de la téléphonie (navigation internet, jeux, messagerie électronique, …), sont devenus des objets de la vie courante. Ces petits ordinateurs miniatures sont capables de fonctionner pendant plusieurs heures malgré une diminution significative de leur taille et de leur poids.

Cette évolution spectaculaire a été possible grâce aux avancées scientifiques dans plusieurs domaines tels que celui de l’énergie (notamment les batteries) ou encore ceux de l’informatique embarquée, de l’électronique radio-fréquence, …, mais aussi grâce au développement de processeurs adaptés. Ces processeurs sont suffisamment petits et performants tout en étant relativement économes en énergie pour pouvoir être intégrés dans un téléphone, ou plus généralement au sein d’une plateforme mobile. Ces caractéristiques issues d’un compromis entre performances calculatoires et consommation d’énergie, sont sans cesse ajustées au fur et à mesure des progrès technologiques réalisés au travers de divers projets de recherche et développement.

Un besoin croissant en performance de calcul 

Le développement de processeurs pour le domaine de l’embarqué est en partie lié aux évolutions de la microélectronique. Historiquement, les technologies de transistor MOSFET (Metal Oxide Semiconductor Field-Effect Transistor) ont été miniaturisées afin d’intégrer plus de fonctionnalités sur une même puce tout en augmentant les performances calculatoires et en réduisant la consommation. Aujourd’hui toutefois, on tend à atteindre les limites physiques de la miniaturisation des technologies actuellement matures. Si de nombreuses recherches sont en cours pour développer des technologies qui permettront de poursuivre la miniaturisation, leur développement reste long, incertain et extrêmement coûteux. Afin de pouvoir surmonter les limitations actuelles et continuer l’augmentation des performances des processeurs (More Moore), le développement d’architectures distribuées apparaît comme la solution la plus intéressante car de telles architectures permettent de paralléliser la charge de travail sur plusieurs ressources.

De plus, la tendance des applications mobiles à exécuter, en parallèle, des fonctionnalités diverses (More than Moore) conduit les concepteurs à développer des circuits de plus en plus adaptés à une application cible, sous forme de Systèmes sur Puces (SoC). Ces SoCs embarquent un nombre croissant de cœurs de calcul (Multi-Processor SoC, MPSoC), hétérogènes ou non, et tous les éléments nécessaires au fonctionnement du SoC (réseau de communication inter cœurs, mémoires volatiles ou/et non, interfaces entrées/sorties).

Enfin, avec l’empilement 3D de plusieurs circuits dans le même boitier pour limiter la surface de chaque puce et favoriser les rendements de fabrication et l’utilisation de technologies hétérogènes, la gestion de ces véritables super-ordinateurs intégrés croît exponentiellement en terme de complexité.

Diminuer la consommation électrique 

Les évolutions antérieures ayant permis d’atteindre de grandes performances calculatoires ont mené à une densité d’intégration de transistors remarquable. Cependant, la puissance dissipée par une porte logique n’a pas diminué aussi rapidement que la densité d’intégration a augmenté. Avec les méthodes de conception actuelles, la densité surfacique d’énergie dans un circuit ne cesse de croître et peut atteindre, et même dépasser, 150W/cm2 ce qui équivaut à des densités surfaciques supérieures à celles observées sur des plaques de cuisson. L’accroissement de la densité surfacique de puissance doit donc être maitrisée et les méthodes de conception repensées afin de limiter les problèmes de vieillissement prématuré. Les limites des capacités de dissipation thermique des circuits intégrés et de leur boitier est une des principales raisons du développement des techniques de gestion de la puissance consommée (Power Management), en particulier pour les systèmes embarqués qui, de part leur contrainte d’encapsulation, ne peuvent pas être équipés d’un système de refroidissement.

Le second élément qui conduit à minimiser la consommation électrique des circuits est lié plus généralement à leur coût de fonctionnement. La consommation électrique des systèmes intégrés d’un centre de calcul peut en effet représenter jusqu’à 50% du coût de fonctionnement de telles structures. Même pour un consommateur lambda de matériel électronique, le budget énergétique lié à l’utilisation de l’ensemble des systèmes embarqués qui l’entourent devient important. En effet, la consommation d’un système mobile est de l’ordre du Watt pour pouvoir fonctionner sur batterie et on estime que le chiffre de 1000 systèmes embarqués par personne pourrait être atteint en 2020. Enfin, plus particulièrement pour les applications mobiles, la durée d’utilisation des appareils dépend en partie de la consommation des éléments de calcul embarqués. Ces systèmes se voient donc contraints à un compromis entre performance de calcul et consommation électrique. On distingue deux domaines d’applications des systèmes embarqués pour lesquels le compromis performance/consommation est différent : les systèmes temps réels et les systèmes autonomes. Les systèmes temps réels ont de fortes contraintes de performances afin de fournir un service dans un délai imparti tout en consommant le moins possible. Les systèmes autonomes, quant à eux, disposent d’un budget énergétique limité et tentent de maximiser leurs performances. De plus, la charge de calcul demandée à un circuit est variable au cours du temps. La gestion performance/consommation n’est donc pas toujours appliquée avec la même pondération. Il semble donc intéressant de pouvoir ajuster les paramètres de fonctionnement de chacun des cœurs du SoC, afin que chacun d’eux travaille à la performance requise tout en minimisant sa consommation, i.e. fonctionne avec le meilleur rendement énergétique possible.

Un compromis performance/consommation affecté par la variabilité 

La gestion conjointe des performances et de la consommation d’un MPSoC est rendue complexe par la variabilité qui affecte le circuit. En effet, malgré les développements d’outils [3] ou de techniques de modélisation [4], il devient difficile de déterminer avec précision la consommation et les performances réelles de chacun des cœurs en présence de variabilité. La variabilité a trois origines principales : les dispersions des procédés de fabrication (P), les variations de tension (V) et les variations de température (T). Chacun de ces éléments présente des répartitions spatiales et des dynamiques temporelles différentes. Les variations des procédés de fabrication sont dues à des déviations lors de la fabrication du circuit intégré. Ces variations affectent les paramètres physiques des transistors et des interconnexions, et modifient donc le temps de propagation des signaux à travers les portes logiques du circuit. Les performances maximales atteignables, ainsi que la puissance consommée, sont alors différentes du cas nominal (procédés de fabrication Typique). Ces variations, distribuées hétérogènement à travers le wafer (variations inter-die), deviennent également de plus en plus importantes au sein d’une même puce (variations intra-die), et ce en particulier pour les technologies les plus avancées. Ces variations de procédés de fabrication sont temporellement statiques si l’on fait abstraction du vieillissement dont les dynamiques sont de l’ordre de l’année. Ce dernier est donc généralement inclus dans les variations des procédés de fabrication.

Hormis les variations quasi-statiques, un circuit est soumis à des variations environnementales dynamiques à savoir, les variations de tension et de température. Les variations de tension sont principalement des chutes de potentiel par rapport au niveau nominal, causées par des appels de courant. Ces phénomènes sont communément connus sous le nom d’IRdrops en référence à la loi d’Ohm, où R est la résistance et I le courant. L’amplitude des IRdrops peut atteindre 10% de la tension nominale, ce qui peut modifier, suivant la gamme de tension considérée, de plus de 50% la vitesse de propagation des signaux dans le circuit et donc affecter d’autant la fréquence maximale de fonctionnement. D’un point de vue dynamique, les variations de tension peuvent être regroupées en plusieurs catégories. Dans [5], il est proposé d’identifier trois catégories d’IRdrops selon les constantes de temps qui les caractérisent.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
Les tendances de l’électronique embarquée
Contexte et motivations
Un besoin croissant en performance de calcul
Diminuer la consommation électrique
Un compromis performance/consommation affecté par la variabilité
Les leviers technologiques pour l’efficacité énergétique
Objectifs et contributions de la thèse
Organisation du manuscrit
1 Évolution des solutions architecturales pour l’efficacité énergétique
1.1 Introduction
1.2 Les techniques de gestion globale des performances et de la consommation des systèmes mono-processeur
1.3 Évolutions vers des techniques de gestion des performances et de
la consommation pour les MPSoCs
1.4 Problématique de la gestion locale
1.5 Synthèse et positionnement du sujet
2 Le besoin d’architectures adaptatives locales
2.1 Introduction
2.2 L’apparition des techniques adaptatives
2.3 Proposition d’une architecture AVFS idéale
2.4 Architecture considérée
2.4.1 Actionneurs
2.4.2 Les systèmes de surveillance de la variabilité
2.4.3 Contrôle et ajustement local
2.5 Politiques de réadaptation locale
2.5.1 Actionneur continu de tension
2.5.2 Actionneur discret de tension
2.6 Synthèse
3 Méthode d’estimation de la tension et de la température
3.1 Le Multiprobe : un capteur facile à concevoir et intégrer
3.2 Estimation de la tension et de la température à base de tests d’hypothèse
3.2.1 Les tests d’hypothèse non-paramétriques
3.2.2 Utilisation de tests d’hypothèse pour l’estimation de VT
3.2.3 Validation par simulation
3.3 Leviers de réglages et compromis
3.3.1 Limitations des Multiprobes et améliorations
3.3.2 Influence des différents paramètres de la méthode
3.3.3 Influence de la granularité de la base de modèles
3.4 Estimation rapide de la tension
3.4.1 Exploitation des différences de dynamiques temporelles entre V et T
3.4.2 Complémentarité avec la méthode d’estimation conjointe de VT
3.4.3 Validation en simulation
3.5 Calibration des Multiprobes
3.5.1 Un compromis précision/coût de calibration
3.5.2 Proposition d’une méthode de calibration
3.6 Conclusion
4 Validation sur plateforme matérielle et bilan énergétique
4.1 Validation du système de surveillance de la tension et de la température
4.1.1 Plateforme de validation : SThorm
4.1.2 Performances temporelles des méthodes proposées
4.1.3 Mesure de tension et de température sur SThorm
4.2 Bilan énergétique
4.2.1 Consommation de la boucle AVFS
4.2.2 Réductions de consommation atteignables par rapport à un DVFS
4.2.3 Bilan énergétique d’une plateforme particulière
4.2.4 Discussion sur la granularité
4.3 Conclusion
Conclusion

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *