PREVISION DU GISEMENT SOLAIRE PAR RESEAUX DE NEURONES ARTIFICIELS ET LA METHODE INVERSE

Latitude et longitude

                    L’équateur est une ligne fictive divisant la Terre en deux hémisphères : l’hémisphère Nord et l’hémisphère Sud. Il est défini par un plan perpendiculaire à l’axe des pôles. La latitude permet de repérer la distance angulaire d’un point quelconque à l’équateur. Elle indique l’axe Nord-Sud en un point de la Terre se trouvant au Nord ou au Sud de l’équateur. Cet angle s’étend de 0° à l’équateur à 90° aux pôles. C’est-à-dire qu’elle est comptée positivement de 0 à 90° vers le nord et négativement de 0 à-90° vers le sud. Le plan formé par la latitude coupe la surface Terrestre suivant des cercles approximatifs qui sont parallèles à l’équateur. La longitude L, est l’autre coordonnée angulaire qui permet de situer un lieu à la surface du globe Terrestre en suivant la direction Est-Ouest. Tous les lieux situés à la même longitude forment un demi-plan limité par l’axe des pôles géographiques coupant la surface de la Terre par le méridien centré au centre de la Terre (l’arc allant d’un pôle à l’autre). Le méridien zéro (0) est, par convention, celui passant sur l’observatoire de Greenwich au Royaume Uni. La longitude, comptée positivement vers l’Est, est ainsi une mesure angulaire sur 360° par rapport au méridien principal, avec une étendue de -180° à +180°, ou respectivement de 180° Ouest à 180° Est.

Énergie solaire thermique

                            Le solaire thermique consiste à transformer les rayonnements solaires en chaleur (énergie thermique) et à la récupérer principalement par chauffage d’un liquide caloporteur. Cette technologie commence à se développer dans les maisons individuelles. Son utilisation se fait principalement pour produire de l’eau chaude sanitaire mais elle peut être utilisée comme complément pour le chauffage de la maison. Le principe général est de concentrer les rayonnements solaires en un seul endroit. Ceux-ci sont alors piégés par des capteurs solaires thermiques vitrés qui transmettent l’énergie solaire à des absorbeurs métalliques. Ces mêmes absorbeurs réchauffent alors un réseau de tuyaux où circule un fluide caloporteur. Cet échangeur va ensuite chauffer à son tour de l’eau stockée dans un ballon et cette même eau alimente le chauffe-eau. Les panneaux solaires plus performants reprennent ce principe mais l’absorbeur reçoit le rayonnement solaire et est enfermé dans une enceinte transparente et hermétique, augmentant ainsi le rendement de l’ensemble. Ceci permet notamment un fonctionnement en hiver. L’extraction de la chaleur se fait grâce à la circulation du fluide caloporteur dans un conduit recevant de l’énergie calorifique.

Historique

                 C’était en 1890 que le psychologue américain W. James [23] a introduit le concept de mémoire associative et a proposé une loi de fonctionnement pour l’apprentissage sur les réseaux de neurones, connue plus tard sous le nom de loi de Hebb. Ainsi en 1943, les neurologues Warren Sturgis McCulloch et Walter Pitts [24] ont mené les premiers travaux sur les réseaux de neurones à la suite de leur article fondateur : « What the frog’s eye tells to the frog’s brain ». Ils ont modélisé le neurone biologique par un comportement booléen en ayant constitué un modèle simplifié de neurones biologiques appelé neurone formel. Ils ont montré théoriquement que les neurones formels simples pouvaient réaliser des fonctions logiques, arithmétiques et symboliques complexes. Ainsi, le neurone artificiel effectue un automate binaire qui réalise une somme pondérée de stimulis ‘S’ provenant d’autres neurones. Si cette somme est supérieure à une valeur seuil ‘B0’ donné, alors le neurone est activé, sinon il ne transmet aucune information et ceci selon la fonction suivante:
 Si S > B0, la sortie vaut 1et le neurone est actif,
 Si S < B0, la sortie vaut -1 et le neurone est inactif.
En 1949, le neurophysicien Hebb a établi le couplage synaptique d’apprentissage ayant eu un fondement biologique et a stipulé que :  » Si deux neurones sont activés simultanément, alors la valeur des poids des connexions entre ces neurones est augmentée, sinon les connexions restent inchangées », [23]. Le premier succès était apparu en 1957 quand Frank Rosenblatt [25] a inventé le premier modèle artificiel nommé le « perceptron ». C’était le premier système qui pouvait apprendre par expérience, y compris, lorsque son instructeur a commis des erreurs. Il a construit le premier neuro-ordinateur basé sur ce modèle et l’a appliqué au domaine de la reconnaissance de forme du système visuel. Notons qu’à cette époque les moyens à sa disposition étaient limités et cela a été une prouesse technologique d’avoir pu réussir à faire fonctionner correctement cette machine pendant quelques minutes. Vers le début des années 60, l’automaticien Widrow [24] a développé des concepts similaires pour la résolution des problèmes de filtrage adaptatif du signal en mettant au point l’ADAptive LInear NEuron (ADALINE) basé sur les travaux de McCulloch et Pitts. Il a démontré notamment que l’Adaline était capable de séparer linéairement des classes dans l’espace à deux dimensions. En 1969, M. Minsky et S. Papert ont publié un ouvrage qui a mis en exergue les limitations théoriques du perceptron. Ces chercheurs ont analysé, sous l’angle mathématique, ses performances et ont trouvé qu’il était incapable de résoudre la séparation pour l’opération logique « ou exclusif » et qu’en conséquence ce modèle ne présente aucun intérêt. Les limitations concernaient notamment l’impossibilité de traiter par ce modèle des problèmes non linéaires .Ils ont étendu implicitement ces limitations à tous modèles de réseaux de neurones artificiels. Leur objectif étant atteint, il y avait eu abandon financier des recherches dans le domaine surtout aux USA, les chercheurs se tournaient principalement vers l’Intelligence Artificiel et les systèmes à base de règles, [26]. Entre 1969 et 1978, le réseau de neurones a connu son ombre. Cependant, toutes les recherches n’étaient pas interrompues. Elles se poursuivaient dans le domaine du traitement du signal, de la reconnaissance de formes et de la modélisation en neurobiologie, etc. De grands chercheurs, dont J.J. Hopfield, S. Grossberg, T. Kohonen, ont cependant persévéré dans l’étude des réseaux de neurones artificiels en ayant introduit la notion d’énergie d’un ensemble de neurones interconnectés basé sur la physique quantique des verres de spin, [28]. En 1982, Hopfield s’intéressait de nouveau aux réseaux de neurones artificiels. Il a montré l’analogie des réseaux de neurones avec certains systèmes physiques, [27]. La découverte, en 1985, de l’algorithme de rétropropagation du gradient énoncé par Rumelhart et al. et celle de la nouvelle génération de réseau de neurones : le perceptron multicouche proposé par Werbos ont permis de lever toutes les limitations énoncées par Minsky et Papert, d’où le regain d’intérêt pour les réseaux de neurones. En effet, cet algorithme reste le modèle le plus étudié et le plus productif au niveau des applications (reconnaissance de la parole, reconnaissances de forme vision artificielle, aide à la décision), [26].

Réseaux bouclés ou réseaux dynamiques

                 L’architecture la plus générale pour un réseau de neurones est celle des réseaux bouclés dont le graphe des connexions est cyclique. Dans les RNA bouclés, les connexions entre les neurones forment des boucles. A chaque fois qu’une entrée est présentée, le réseau doit itérer pendant une longue période avant de produire une réponse. En se déplaçant dans le réseau et en suivant le sens des connexions, il est possible de trouver au moins un chemin qui revient à son point de départ ou « cycle ». La sortie peut être fonction d’elle-même, cela n’est évidemment concevable que si la notion du temps est explicitement prise en considération. En général, les réseaux bouclés sont plus difficiles à entraîner que les réseaux nonbouclés. Il est à noter que ces connexions circulaires dont les valeurs dépendent des activations antérieures des unités du réseau permettent de mieux traiter des problèmes comportant un aspect temporel. En effet, les réseaux bouclés sont dédiés à la prédiction des séries temporelles grâce à leur capacité de mémoriser le passé des entrées à l’aide des boucles neuronales. L’apprentissage est cependant généralement assez complexe dans ces réseaux et leurs propriétés sont souvent moins bien connues que celles des réseaux non récurrents ou non bouclés. En effet, à chaque connexion d’un réseau de neurones bouclé ou à chaque arrêt de son graphe, est attaché un poids ou un retard qui est un multiple entier ou nul de l’unité de temps choisie comme pour les réseaux non bouclés. A un instant donné, une grandeur ne pouvant pas être fonction de sa propre valeur au même instant, ainsi, tout cycle du graphe du réseau doit avoir un retard non nul, [30]. La propriété du réseau de neurone bouclé s’énonce comme suit, [32] : « Tout réseau de neurones bouclé, aussi complexe soit-il, peut être mis sous une forme canonique (voir figure 2.11), comportant un réseau de neurones non bouclé dont certaines sorties dites variables d’état sont ramenées aux entrées par des bouclages de retard unité ».

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction Générale
Chapitre I : Gisement solaire
I.1 Soleil
I.2 Mouvements de la Terre
I.2.1 Révolution autour du Soleil
I.2.2 Rotation sur elle-même
I.3 Position du Soleil
I.3.1 Coordonnées célestes horizontales
I.3.1.1 Azimut a
I.3.1.2 Hauteur h
I.3.2 Coordonnées célestes horaires
I.3.2.1 La déclinaison
I.3.2.2 L’angle horaire
I.4 Coordonnées géographiques
I.4.1 Latitude et longitude
I.4.2 Fuseaux horaires
I.5 Temps solaires
I.5.1 Temps Solaire Moyen (TSM)
I.5.2 Temps Universel (TU)
I.5.3 Temps local (TL)
I.5.4 Equation du temps (ET)
I.6 Durée du jour entre les lever et coucher du Soleil
I.7 Mouvement apparent du Soleil
I.8 Rayonnement solaire
I.8.1 Constante solaire
I.8.2 Irradiation solaire
I.8.2.1 Rayonnement direct
I.8.2.2 Rayonnement diffus
I.9 Différentes technologies solaires
I.9.1 Énergie solaire passive
I.9.2 Énergie solaire photovoltaïque
I.9.3 Énergie solaire thermodynamique
I.9.4 Énergie solaire thermique
Chapitre II : Réseaux de neurones artificiels
II.1 Origine 
II.1.1 Eléments biologiques
II.1.2 Modélisation
II.1.3 Historique
II.2 Neurones formels 
II.2.1. Structure des réseaux de neurones
II.2.2 Fonction de transfert
II.2.2.1 Fonction « seuil »
II.2.2.2 Fonction « linéaire »
II.2.2.3 Fonction « sigmoïde »
II.3 Architecture des réseaux de neurones 
II.3.1 Réseaux non bouclés ou réseaux statiques
II.3.2 Réseaux bouclés ou réseaux dynamiques
II.4 Perceptron multicouche 
II.4.1 Mise en œuvre du perceptron multicouche
II.4.2 Approximation universelle
II.4.3 Propriété de parcimonie
II.5 Processus d’apprentissage 
II.5.1 Définition
II.5.2 Mode non supervisé
II.5.3 Mode supervisé
II.5.4 Algorithmes de minimisation
II.5.4.1 Descente du gradient
II.5.4.2 Méthode de Newton
II.5.4.3 Méthode de quasi-Newton
II.5.4.4 Problème des minima locaux
II.5.4.5 Technique de rétropropagation
II.5.4.6 Erreur quadratique
II.6 Généralisation 
II.6.1 Définition
II.6.2 Facteurs indispensables
II.7 Problème de surapprentissage 
II.7.1 Compromis biais et variance
II.7.2 Early stopping
II.7.3 Weight decay
II.8 Approche neuronal bayesienne
II.8.1 Théorème de Bayes
II.8.2 Approche probabiliste appliquée à l’apprentissage neuronal
II.8.3 Distribution de probabilité a priori
II.8.4 Fonction de vraisemblance
II.8.5 Distribution de probabilité a posteriori
II.8.6 Approximation gaussienne du posterior
II.8.7 Détermination des hyperparamètres α et β
II.9 Séries temporelles 
II.9.1 Généralités
II.9.2 Modèle autorégressif à entrée exogène
II.9.3 Modèle autorégressif à moyenne mobile et entrée exogène
II.9.4 Structures des modèles
II.9.4.1 Modèle NNARX
II.9.4.2 Modèle NNARMAX
II.10 Optimisation 
II.10.1 Technique Automatic Relevance Determination
II.10.2 Estimation de l’erreur de prédiction
II.10.2.1 Erreur quadratique moyenne
II.10.2.2 Erreur absolue moyenne en pourcentage
Chapitre III : Méthode inverse
III.1 Historique des Problèmes Inverses de la Conduction de Chaleur
III.2 Généralités
III.3 Bilan des études antérieures
III.4 Objectifs et domaines d’applications
III.5 Difficultés spécifiques au PICC
III.6 Positionnement des capteurs
III.7 Description des méthodes
III.7.1 Formulation mathématique du problème
III.7.2 Méthodes de retour vers la surface
III.7.2.1 Principe
III.7.2.2 Méthode des différences finies
III.7.2.3 Méthode du bilan d’énergie
III.7.2.4 Calcul de la densité de flux surfacique
Chapitre IV : Résultats et interprétations
IV.1 Présentation du logiciel
IV.2 Problématique de la prédiction de l’irradiation globale
IV.3 Réseaux de neurones artificiels
IV.3.1 Sélection des variables d’entrée de réseau
IV.3.2 Réseaux de neurones statiques
IV.3.2.1 Modèle neuronal classique
IV.3.2.2 Modèle neuronal bayesien
IV.3.2.3 Optimisation
IV.3.2.3.1 Recherche de la valeur des hyperparamètres
IV.3.2.3.2 Recherche du nombre des neurones cachés
IV.3.2.3.3 Résultats d’optimisation
IV.3.2.4 Interprétation
IV.3.3 Réseaux de neurones dynamiques
IV.3.3.1 Modèle NNARX
IV.3.3.2 Modèle NNARMAX
IV.3.4 Méthode de persistance
IV.4 Méthode inverse
IV.4.1 Influence du positionnement du premier capteur C1
IV.4.2 Influence du positionnement du second capteur C2
Conclusion générale
REFERENCES
ANNEXES

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *