PREVISION DU GISEMENT SOLAIRE PAR RESEAUX DE NEURONES ARTIFICIELS ET LA METHODE INVERSE

Latitude et longitude

ย  ย  ย  ย  ย  ย  ย  ย  ย  ย  L’รฉquateur est une ligne fictive divisant la Terre en deux hรฉmisphรจres : lโ€™hรฉmisphรจre Nord et lโ€™hรฉmisphรจre Sud. Il est dรฉfini par un plan perpendiculaire ร  l’axe des pรดles. La latitude permet de repรฉrer la distance angulaire d’un point quelconque ร  l’รฉquateur. Elle indique lโ€™axe Nord-Sud en un point de la Terre se trouvant au Nord ou au Sud de l’รฉquateur. Cet angle s’รฉtend de 0ยฐ ร  l’รฉquateur ร  ๏‚ฑ90ยฐ aux pรดles. Cโ€™est-ร -dire quโ€™elle est comptรฉe positivement de 0 ร  90ยฐ vers le nord et nรฉgativement de 0 ร -90ยฐ vers le sud. Le plan formรฉ par la latitude coupe la surface Terrestre suivant des cercles approximatifs qui sont parallรจles ร  l’รฉquateur. La longitude L, est lโ€™autre coordonnรฉe angulaire qui permet de situer un lieu ร  la surface du globe Terrestre en suivant la direction Est-Ouest. Tous les lieux situรฉs ร  la mรชme longitude forment un demi-plan limitรฉ par l’axe des pรดles gรฉographiques coupant la surface de la Terre par le mรฉridien centrรฉ au centre de la Terre (l’arc allant d’un pรดle ร  lโ€™autre). Le mรฉridien zรฉro (0) est, par convention, celui passant sur l’observatoire de Greenwich au Royaume Uni. La longitude, comptรฉe positivement vers lโ€™Est, est ainsi une mesure angulaire sur 360ยฐ par rapport au mรฉridien principal, avec une รฉtendue de -180ยฐ ร  +180ยฐ, ou respectivement de 180ยฐ Ouest ร  180ยฐ Est.

ร‰nergie solaire thermique

ย  ย  ย  ย  ย  ย  ย  ย  ย  ย  ย  ย  ย  ย  Le solaire thermique consiste ร  transformer les rayonnements solaires en chaleur (รฉnergie thermique) et ร  la rรฉcupรฉrer principalement par chauffage dโ€™un liquide caloporteur. Cette technologie commence ร  se dรฉvelopper dans les maisons individuelles. Son utilisation se fait principalement pour produire de l’eau chaude sanitaire mais elle peut รชtre utilisรฉe comme complรฉment pour le chauffage de la maison. Le principe gรฉnรฉral est de concentrer les rayonnements solaires en un seul endroit. Ceux-ci sont alors piรฉgรฉs par des capteurs solaires thermiques vitrรฉs qui transmettent l’รฉnergie solaire ร  des absorbeurs mรฉtalliques. Ces mรชmes absorbeurs rรฉchauffent alors un rรฉseau de tuyaux oรน circule un fluide caloporteur. Cet รฉchangeur va ensuite chauffer ร  son tour de lโ€™eau stockรฉe dans un ballon et cette mรชme eau alimente le chauffe-eau. Les panneaux solaires plus performants reprennent ce principe mais lโ€™absorbeur reรงoit le rayonnement solaire et est enfermรฉ dans une enceinte transparente et hermรฉtique, augmentant ainsi le rendement de l’ensemble. Ceci permet notamment un fonctionnement en hiver. L’extraction de la chaleur se fait grรขce ร  la circulation du fluide caloporteur dans un conduit recevant de l’รฉnergie calorifique.

Historique

ย  ย  ย  ย  ย  ย  ย  ย  ย Cโ€™รฉtait en 1890 que le psychologue amรฉricain W. James [23] a introduit le concept de mรฉmoire associative et a proposรฉ une loi de fonctionnement pour lโ€™apprentissage sur les rรฉseaux de neurones, connue plus tard sous le nom de loi de Hebb. Ainsi en 1943, les neurologues Warren Sturgis McCulloch et Walter Pitts [24] ont menรฉ les premiers travaux sur les rรฉseaux de neurones ร  la suite de leur article fondateur : ยซย What the frogโ€™s eye tells to the frogโ€™s brainย ยป. Ils ont modรฉlisรฉ le neurone biologique par un comportement boolรฉen en ayant constituรฉ un modรจle simplifiรฉ de neurones biologiques appelรฉ neurone formel. Ils ont montrรฉ thรฉoriquement que les neurones formels simples pouvaient rรฉaliser des fonctions logiques, arithmรฉtiques et symboliques complexes. Ainsi, le neurone artificiel effectue un automate binaire qui rรฉalise une somme pondรฉrรฉe de stimulis โ€˜Sโ€™ provenant dโ€™autres neurones. Si cette somme est supรฉrieure ร  une valeur seuil โ€˜B0โ€™ donnรฉ, alors le neurone est activรฉ, sinon il ne transmet aucune information et ceci selon la fonction suivante:
๏‚ท Si S > B0, la sortie vaut 1et le neurone est actif,
๏‚ท Si S < B0, la sortie vaut -1 et le neurone est inactif.
En 1949, le neurophysicien Hebb a รฉtabli le couplage synaptique dโ€™apprentissage ayant eu un fondement biologique et a stipulรฉ que : ย ยป Si deux neurones sont activรฉs simultanรฉment, alors la valeur des poids des connexions entre ces neurones est augmentรฉe, sinon les connexions restent inchangรฉesย ยป, [23]. Le premier succรจs รฉtait apparu en 1957 quand Frank Rosenblatt [25] a inventรฉ leย premier modรจle artificiel nommรฉ le ยซ perceptron ยป. C’รฉtait le premier systรจme qui pouvait apprendre par expรฉrience, y compris, lorsque son instructeur a commis des erreurs. Il a construit le premier neuro-ordinateur basรฉ sur ce modรจle et lโ€™a appliquรฉ au domaine de la reconnaissance de forme du systรจme visuel. Notons quโ€™ร  cette รฉpoque les moyens ร  sa disposition รฉtaient limitรฉs et cela a รฉtรฉ une prouesse technologique dโ€™avoir pu rรฉussir ร  faire fonctionner correctement cette machine pendant quelques minutes. Vers le dรฉbut des annรฉes 60, lโ€™automaticien Widrow [24] a dรฉveloppรฉ des concepts similaires pour la rรฉsolution des problรจmes de filtrage adaptatif du signal en mettant au point lโ€™ADAptive LInear NEuron (ADALINE) basรฉ sur les travaux de McCulloch et Pitts. Il a dรฉmontrรฉ notamment que lโ€™Adaline รฉtait capable de sรฉparer linรฉairement des classes dans lโ€™espace ร  deux dimensions. En 1969, M. Minsky et S. Papert ont publiรฉ un ouvrage qui a mis en exergue les limitations thรฉoriques du perceptron. Ces chercheurs ont analysรฉ, sous lโ€™angle mathรฉmatique, ses performances et ont trouvรฉ quโ€™il รฉtait incapable de rรฉsoudre la sรฉparation pour lโ€™opรฉration logique ยซ ou exclusif ยป et quโ€™en consรฉquence ce modรจle ne prรฉsente aucun intรฉrรชt. Les limitations concernaient notamment lโ€™impossibilitรฉ de traiter par ce modรจle des problรจmes non linรฉaires .Ils ont รฉtendu implicitement ces limitations ร  tous modรจles de rรฉseaux de neurones artificiels. Leur objectif รฉtant atteint, il y avait eu abandon financier des recherches dans le domaine surtout aux USA, les chercheurs se tournaient principalement vers lโ€™Intelligence Artificiel et les systรจmes ร  base de rรจgles, [26]. Entre 1969 et 1978, le rรฉseau de neurones a connu son ombre. Cependant, toutes les recherches nโ€™รฉtaient pas interrompues. Elles se poursuivaient dans le domaine du traitement du signal, de la reconnaissance de formes et de la modรฉlisation en neurobiologie, etc. De grands chercheurs, dont J.J. Hopfield, S. Grossberg, T. Kohonen, ont cependant persรฉvรฉrรฉ dans lโ€™รฉtude des rรฉseaux de neurones artificiels en ayant introduit la notion dโ€™รฉnergie dโ€™un ensemble de neurones interconnectรฉs basรฉ sur la physique quantique des verres de spin, [28]. En 1982, Hopfield sโ€™intรฉressait de nouveau aux rรฉseaux de neurones artificiels. Il a montrรฉ lโ€™analogie des rรฉseaux de neurones avec certains systรจmes physiques, [27]. La dรฉcouverte, en 1985, de lโ€™algorithme de rรฉtropropagation du gradient รฉnoncรฉ par Rumelhart et al. et celle de la nouvelle gรฉnรฉration de rรฉseau de neurones : le perceptron multicouche proposรฉ par Werbos ont permis de lever toutes les limitations รฉnoncรฉes par Minsky et Papert, dโ€™oรน le regain dโ€™intรฉrรชt pour les rรฉseaux de neurones. En effet, cet algorithme reste le modรจle le plus รฉtudiรฉ et le plus productif au niveau des applications (reconnaissance de la parole, reconnaissances de forme vision artificielle, aide ร  la dรฉcision), [26].

Rรฉseaux bouclรฉs ou rรฉseaux dynamiques

ย  ย  ย  ย  ย  ย  ย  ย  ย Lโ€™architecture la plus gรฉnรฉrale pour un rรฉseau de neurones est celle des rรฉseaux bouclรฉs dont le graphe des connexions est cyclique. Dans les RNA bouclรฉs, les connexions entre les neurones forment des boucles. A chaque fois quโ€™une entrรฉe est prรฉsentรฉe, le rรฉseau doit itรฉrer pendant une longue pรฉriode avant de produire une rรฉponse. En se dรฉplaรงant dans le rรฉseau et en suivant le sens des connexions, il est possible de trouver au moins un chemin qui revient ร  son point de dรฉpart ou ยซย cycleย ยป. La sortie peut รชtre fonction dโ€™elle-mรชme, cela nโ€™est รฉvidemment concevable que si la notion du temps est explicitement prise en considรฉration. En gรฉnรฉral, les rรฉseaux bouclรฉs sont plus difficiles ร  entraรฎner que les rรฉseaux nonbouclรฉs. Il est ร  noter que ces connexions circulaires dont les valeurs dรฉpendent des activations antรฉrieures des unitรฉs du rรฉseau permettent de mieux traiter des problรจmes comportant un aspect temporel. En effet, les rรฉseaux bouclรฉs sont dรฉdiรฉs ร  la prรฉdiction des sรฉries temporelles grรขce ร  leur capacitรฉ de mรฉmoriser le passรฉ des entrรฉes ร  lโ€™aide des boucles neuronales. Lโ€™apprentissage est cependant gรฉnรฉralement assez complexe dans ces rรฉseaux et leurs propriรฉtรฉs sont souvent moins bien connues que celles des rรฉseaux non rรฉcurrents ou non bouclรฉs. En effet, ร  chaque connexion dโ€™un rรฉseau de neurones bouclรฉ ou ร  chaque arrรชt de son graphe, est attachรฉ un poids ou un retard qui est un multiple entier ou nul de lโ€™unitรฉ de temps choisie comme pour les rรฉseaux non bouclรฉs. A un instant donnรฉ, une grandeur ne pouvant pas รชtre fonction de sa propre valeur au mรชme instant, ainsi, tout cycle du graphe du rรฉseau doit avoir un retard non nul, [30]. La propriรฉtรฉ du rรฉseau de neurone bouclรฉ sโ€™รฉnonce comme suit, [32] : ยซย Tout rรฉseau de neurones bouclรฉ, aussi complexe soit-il, peut รชtre mis sous une forme canonique (voir figure 2.11), comportant un rรฉseau de neurones non bouclรฉ dont certaines sorties dites variables dโ€™รฉtat sont ramenรฉes aux entrรฉes par des bouclages de retard unitรฉย ยป.

Le rapport de stage ou le pfe est un document dโ€™analyse, de synthรจse et dโ€™รฉvaluation de votre apprentissage, cโ€™est pour cela chatpfe.com propose le tรฉlรฉchargement des modรจles complet de projet de fin dโ€™รฉtude, rapport de stage, mรฉmoire, pfe, thรจse, pour connaรฎtre la mรฉthodologie ร  avoir et savoir comment construire les parties dโ€™un projet de fin dโ€™รฉtude.

Table des matiรจres

Introduction Gรฉnรฉrale
Chapitre I : Gisement solaire
I.1 Soleil
I.2 Mouvements de la Terre
I.2.1 Rรฉvolution autour du Soleil
I.2.2 Rotation sur elle-mรชme
I.3 Position du Soleil
I.3.1 Coordonnรฉes cรฉlestes horizontales
I.3.1.1 Azimut a
I.3.1.2 Hauteur h
I.3.2 Coordonnรฉes cรฉlestes horaires
I.3.2.1 La dรฉclinaison๏ค
I.3.2.2 L’angle horaire๏ท
I.4 Coordonnรฉes gรฉographiques
I.4.1 Latitude et longitude
I.4.2 Fuseaux horaires
I.5 Temps solaires
I.5.1 Temps Solaire Moyen (TSM)
I.5.2 Temps Universel (TU)
I.5.3 Temps local (TL)
I.5.4 Equation du temps (ET)
I.6 Durรฉe du jour entre les lever et coucher du Soleil
I.7 Mouvement apparent du Soleil
I.8 Rayonnement solaire
I.8.1 Constante solaire
I.8.2 Irradiation solaire
I.8.2.1 Rayonnement direct
I.8.2.2 Rayonnement diffus
I.9 Diffรฉrentes technologies solaires
I.9.1 ร‰nergie solaire passive
I.9.2 ร‰nergie solaire photovoltaรฏque
I.9.3 ร‰nergie solaire thermodynamique
I.9.4 ร‰nergie solaire thermique
Chapitre II : Rรฉseaux de neurones artificiels
II.1 Origineย 
II.1.1 Elรฉments biologiques
II.1.2 Modรฉlisation
II.1.3 Historique
II.2 Neurones formelsย 
II.2.1. Structure des rรฉseaux de neurones
II.2.2 Fonction de transfert
II.2.2.1 Fonction ยซ seuil ยป
II.2.2.2 Fonction ยซ linรฉaire ยป
II.2.2.3 Fonction ยซ sigmoรฏde ยป
II.3 Architecture des rรฉseaux de neuronesย 
II.3.1 Rรฉseaux non bouclรฉs ou rรฉseaux statiques
II.3.2 Rรฉseaux bouclรฉs ou rรฉseaux dynamiques
II.4 Perceptron multicoucheย 
II.4.1 Mise en ล“uvre du perceptron multicouche
II.4.2 Approximation universelle
II.4.3 Propriรฉtรฉ de parcimonie
II.5 Processus dโ€™apprentissageย 
II.5.1 Dรฉfinition
II.5.2 Mode non supervisรฉ
II.5.3 Mode supervisรฉ
II.5.4 Algorithmes de minimisation
II.5.4.1 Descente du gradient
II.5.4.2 Mรฉthode de Newton
II.5.4.3 Mรฉthode de quasi-Newton
II.5.4.4 Problรจme des minima locaux
II.5.4.5 Technique de rรฉtropropagation
II.5.4.6 Erreur quadratique
II.6 Gรฉnรฉralisationย 
II.6.1 Dรฉfinition
II.6.2 Facteurs indispensables
II.7 Problรจme de surapprentissageย 
II.7.1 Compromis biais et variance
II.7.2 Early stopping
II.7.3 Weight decay
II.8 Approche neuronal bayesienne
II.8.1 Thรฉorรจme de Bayes
II.8.2 Approche probabiliste appliquรฉe ร  lโ€™apprentissage neuronal
II.8.3 Distribution de probabilitรฉ a priori
II.8.4 Fonction de vraisemblance
II.8.5 Distribution de probabilitรฉ a posteriori
II.8.6 Approximation gaussienne du posterior
II.8.7 Dรฉtermination des hyperparamรจtres ฮฑ et ฮฒ
II.9 Sรฉries temporellesย 
II.9.1 Gรฉnรฉralitรฉs
II.9.2 Modรจle autorรฉgressif ร  entrรฉe exogรจne
II.9.3 Modรจle autorรฉgressif ร  moyenne mobile et entrรฉe exogรจne
II.9.4 Structures des modรจles
II.9.4.1 Modรจle NNARX
II.9.4.2 Modรจle NNARMAX
II.10 Optimisationย 
II.10.1 Technique Automatic Relevance Determination
II.10.2 Estimation de l’erreur de prรฉdiction
II.10.2.1 Erreur quadratique moyenne
II.10.2.2 Erreur absolue moyenne en pourcentage
Chapitre III : Mรฉthode inverse
III.1 Historique des Problรจmes Inverses de la Conduction de Chaleur
III.2 Gรฉnรฉralitรฉs
III.3 Bilan des รฉtudes antรฉrieures
III.4 Objectifs et domaines dโ€™applications
III.5 Difficultรฉs spรฉcifiques au PICC
III.6 Positionnement des capteurs
III.7 Description des mรฉthodes
III.7.1 Formulation mathรฉmatique du problรจme
III.7.2 Mรฉthodes de retour vers la surface
III.7.2.1 Principe
III.7.2.2 Mรฉthode des diffรฉrences finies
III.7.2.3 Mรฉthode du bilan dโ€™รฉnergie
III.7.2.4 Calcul de la densitรฉ de flux surfacique
Chapitre IV : Rรฉsultats et interprรฉtations
IV.1 Prรฉsentation du logiciel
IV.2 Problรฉmatique de la prรฉdiction de lโ€™irradiation globale
IV.3 Rรฉseaux de neurones artificiels
IV.3.1 Sรฉlection des variables dโ€™entrรฉe de rรฉseau
IV.3.2 Rรฉseaux de neurones statiques
IV.3.2.1 Modรจle neuronal classique
IV.3.2.2 Modรจle neuronal bayesien
IV.3.2.3 Optimisation
IV.3.2.3.1 Recherche de la valeur des hyperparamรจtres
IV.3.2.3.2 Recherche du nombre des neurones cachรฉs
IV.3.2.3.3 Rรฉsultats dโ€™optimisation
IV.3.2.4 Interprรฉtation
IV.3.3 Rรฉseaux de neurones dynamiques
IV.3.3.1 Modรจle NNARX
IV.3.3.2 Modรจle NNARMAX
IV.3.4 Mรฉthode de persistance
IV.4 Mรฉthode inverse
IV.4.1 Influence du positionnement du premier capteur C1
IV.4.2 Influence du positionnement du second capteur C2
Conclusion gรฉnรฉrale
REFERENCES
ANNEXES

Tรฉlรฉcharger le rapport complet

Tรฉlรฉcharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiรฉe. Les champs obligatoires sont indiquรฉs avec *