Latitude et longitude
ย ย ย ย ย ย ย ย ย ย L’รฉquateur est une ligne fictive divisant la Terre en deux hรฉmisphรจres : lโhรฉmisphรจre Nord et lโhรฉmisphรจre Sud. Il est dรฉfini par un plan perpendiculaire ร l’axe des pรดles. La latitude permet de repรฉrer la distance angulaire d’un point quelconque ร l’รฉquateur. Elle indique lโaxe Nord-Sud en un point de la Terre se trouvant au Nord ou au Sud de l’รฉquateur. Cet angle s’รฉtend de 0ยฐ ร l’รฉquateur ร ๏ฑ90ยฐ aux pรดles. Cโest-ร -dire quโelle est comptรฉe positivement de 0 ร 90ยฐ vers le nord et nรฉgativement de 0 ร -90ยฐ vers le sud. Le plan formรฉ par la latitude coupe la surface Terrestre suivant des cercles approximatifs qui sont parallรจles ร l’รฉquateur. La longitude L, est lโautre coordonnรฉe angulaire qui permet de situer un lieu ร la surface du globe Terrestre en suivant la direction Est-Ouest. Tous les lieux situรฉs ร la mรชme longitude forment un demi-plan limitรฉ par l’axe des pรดles gรฉographiques coupant la surface de la Terre par le mรฉridien centrรฉ au centre de la Terre (l’arc allant d’un pรดle ร lโautre). Le mรฉridien zรฉro (0) est, par convention, celui passant sur l’observatoire de Greenwich au Royaume Uni. La longitude, comptรฉe positivement vers lโEst, est ainsi une mesure angulaire sur 360ยฐ par rapport au mรฉridien principal, avec une รฉtendue de -180ยฐ ร +180ยฐ, ou respectivement de 180ยฐ Ouest ร 180ยฐ Est.
รnergie solaire thermique
ย ย ย ย ย ย ย ย ย ย ย ย ย ย Le solaire thermique consiste ร transformer les rayonnements solaires en chaleur (รฉnergie thermique) et ร la rรฉcupรฉrer principalement par chauffage dโun liquide caloporteur. Cette technologie commence ร se dรฉvelopper dans les maisons individuelles. Son utilisation se fait principalement pour produire de l’eau chaude sanitaire mais elle peut รชtre utilisรฉe comme complรฉment pour le chauffage de la maison. Le principe gรฉnรฉral est de concentrer les rayonnements solaires en un seul endroit. Ceux-ci sont alors piรฉgรฉs par des capteurs solaires thermiques vitrรฉs qui transmettent l’รฉnergie solaire ร des absorbeurs mรฉtalliques. Ces mรชmes absorbeurs rรฉchauffent alors un rรฉseau de tuyaux oรน circule un fluide caloporteur. Cet รฉchangeur va ensuite chauffer ร son tour de lโeau stockรฉe dans un ballon et cette mรชme eau alimente le chauffe-eau. Les panneaux solaires plus performants reprennent ce principe mais lโabsorbeur reรงoit le rayonnement solaire et est enfermรฉ dans une enceinte transparente et hermรฉtique, augmentant ainsi le rendement de l’ensemble. Ceci permet notamment un fonctionnement en hiver. L’extraction de la chaleur se fait grรขce ร la circulation du fluide caloporteur dans un conduit recevant de l’รฉnergie calorifique.
Historique
ย ย ย ย ย ย ย ย ย Cโรฉtait en 1890 que le psychologue amรฉricain W. James [23] a introduit le concept de mรฉmoire associative et a proposรฉ une loi de fonctionnement pour lโapprentissage sur les rรฉseaux de neurones, connue plus tard sous le nom de loi de Hebb. Ainsi en 1943, les neurologues Warren Sturgis McCulloch et Walter Pitts [24] ont menรฉ les premiers travaux sur les rรฉseaux de neurones ร la suite de leur article fondateur : ยซย What the frogโs eye tells to the frogโs brainย ยป. Ils ont modรฉlisรฉ le neurone biologique par un comportement boolรฉen en ayant constituรฉ un modรจle simplifiรฉ de neurones biologiques appelรฉ neurone formel. Ils ont montrรฉ thรฉoriquement que les neurones formels simples pouvaient rรฉaliser des fonctions logiques, arithmรฉtiques et symboliques complexes. Ainsi, le neurone artificiel effectue un automate binaire qui rรฉalise une somme pondรฉrรฉe de stimulis โSโ provenant dโautres neurones. Si cette somme est supรฉrieure ร une valeur seuil โB0โ donnรฉ, alors le neurone est activรฉ, sinon il ne transmet aucune information et ceci selon la fonction suivante:
๏ท Si S > B0, la sortie vaut 1et le neurone est actif,
๏ท Si S < B0, la sortie vaut -1 et le neurone est inactif.
En 1949, le neurophysicien Hebb a รฉtabli le couplage synaptique dโapprentissage ayant eu un fondement biologique et a stipulรฉ que : ย ยป Si deux neurones sont activรฉs simultanรฉment, alors la valeur des poids des connexions entre ces neurones est augmentรฉe, sinon les connexions restent inchangรฉesย ยป, [23]. Le premier succรจs รฉtait apparu en 1957 quand Frank Rosenblatt [25] a inventรฉ leย premier modรจle artificiel nommรฉ le ยซ perceptron ยป. C’รฉtait le premier systรจme qui pouvait apprendre par expรฉrience, y compris, lorsque son instructeur a commis des erreurs. Il a construit le premier neuro-ordinateur basรฉ sur ce modรจle et lโa appliquรฉ au domaine de la reconnaissance de forme du systรจme visuel. Notons quโร cette รฉpoque les moyens ร sa disposition รฉtaient limitรฉs et cela a รฉtรฉ une prouesse technologique dโavoir pu rรฉussir ร faire fonctionner correctement cette machine pendant quelques minutes. Vers le dรฉbut des annรฉes 60, lโautomaticien Widrow [24] a dรฉveloppรฉ des concepts similaires pour la rรฉsolution des problรจmes de filtrage adaptatif du signal en mettant au point lโADAptive LInear NEuron (ADALINE) basรฉ sur les travaux de McCulloch et Pitts. Il a dรฉmontrรฉ notamment que lโAdaline รฉtait capable de sรฉparer linรฉairement des classes dans lโespace ร deux dimensions. En 1969, M. Minsky et S. Papert ont publiรฉ un ouvrage qui a mis en exergue les limitations thรฉoriques du perceptron. Ces chercheurs ont analysรฉ, sous lโangle mathรฉmatique, ses performances et ont trouvรฉ quโil รฉtait incapable de rรฉsoudre la sรฉparation pour lโopรฉration logique ยซ ou exclusif ยป et quโen consรฉquence ce modรจle ne prรฉsente aucun intรฉrรชt. Les limitations concernaient notamment lโimpossibilitรฉ de traiter par ce modรจle des problรจmes non linรฉaires .Ils ont รฉtendu implicitement ces limitations ร tous modรจles de rรฉseaux de neurones artificiels. Leur objectif รฉtant atteint, il y avait eu abandon financier des recherches dans le domaine surtout aux USA, les chercheurs se tournaient principalement vers lโIntelligence Artificiel et les systรจmes ร base de rรจgles, [26]. Entre 1969 et 1978, le rรฉseau de neurones a connu son ombre. Cependant, toutes les recherches nโรฉtaient pas interrompues. Elles se poursuivaient dans le domaine du traitement du signal, de la reconnaissance de formes et de la modรฉlisation en neurobiologie, etc. De grands chercheurs, dont J.J. Hopfield, S. Grossberg, T. Kohonen, ont cependant persรฉvรฉrรฉ dans lโรฉtude des rรฉseaux de neurones artificiels en ayant introduit la notion dโรฉnergie dโun ensemble de neurones interconnectรฉs basรฉ sur la physique quantique des verres de spin, [28]. En 1982, Hopfield sโintรฉressait de nouveau aux rรฉseaux de neurones artificiels. Il a montrรฉ lโanalogie des rรฉseaux de neurones avec certains systรจmes physiques, [27]. La dรฉcouverte, en 1985, de lโalgorithme de rรฉtropropagation du gradient รฉnoncรฉ par Rumelhart et al. et celle de la nouvelle gรฉnรฉration de rรฉseau de neurones : le perceptron multicouche proposรฉ par Werbos ont permis de lever toutes les limitations รฉnoncรฉes par Minsky et Papert, dโoรน le regain dโintรฉrรชt pour les rรฉseaux de neurones. En effet, cet algorithme reste le modรจle le plus รฉtudiรฉ et le plus productif au niveau des applications (reconnaissance de la parole, reconnaissances de forme vision artificielle, aide ร la dรฉcision), [26].
Rรฉseaux bouclรฉs ou rรฉseaux dynamiques
ย ย ย ย ย ย ย ย ย Lโarchitecture la plus gรฉnรฉrale pour un rรฉseau de neurones est celle des rรฉseaux bouclรฉs dont le graphe des connexions est cyclique. Dans les RNA bouclรฉs, les connexions entre les neurones forment des boucles. A chaque fois quโune entrรฉe est prรฉsentรฉe, le rรฉseau doit itรฉrer pendant une longue pรฉriode avant de produire une rรฉponse. En se dรฉplaรงant dans le rรฉseau et en suivant le sens des connexions, il est possible de trouver au moins un chemin qui revient ร son point de dรฉpart ou ยซย cycleย ยป. La sortie peut รชtre fonction dโelle-mรชme, cela nโest รฉvidemment concevable que si la notion du temps est explicitement prise en considรฉration. En gรฉnรฉral, les rรฉseaux bouclรฉs sont plus difficiles ร entraรฎner que les rรฉseaux nonbouclรฉs. Il est ร noter que ces connexions circulaires dont les valeurs dรฉpendent des activations antรฉrieures des unitรฉs du rรฉseau permettent de mieux traiter des problรจmes comportant un aspect temporel. En effet, les rรฉseaux bouclรฉs sont dรฉdiรฉs ร la prรฉdiction des sรฉries temporelles grรขce ร leur capacitรฉ de mรฉmoriser le passรฉ des entrรฉes ร lโaide des boucles neuronales. Lโapprentissage est cependant gรฉnรฉralement assez complexe dans ces rรฉseaux et leurs propriรฉtรฉs sont souvent moins bien connues que celles des rรฉseaux non rรฉcurrents ou non bouclรฉs. En effet, ร chaque connexion dโun rรฉseau de neurones bouclรฉ ou ร chaque arrรชt de son graphe, est attachรฉ un poids ou un retard qui est un multiple entier ou nul de lโunitรฉ de temps choisie comme pour les rรฉseaux non bouclรฉs. A un instant donnรฉ, une grandeur ne pouvant pas รชtre fonction de sa propre valeur au mรชme instant, ainsi, tout cycle du graphe du rรฉseau doit avoir un retard non nul, [30]. La propriรฉtรฉ du rรฉseau de neurone bouclรฉ sโรฉnonce comme suit, [32] : ยซย Tout rรฉseau de neurones bouclรฉ, aussi complexe soit-il, peut รชtre mis sous une forme canonique (voir figure 2.11), comportant un rรฉseau de neurones non bouclรฉ dont certaines sorties dites variables dโรฉtat sont ramenรฉes aux entrรฉes par des bouclages de retard unitรฉย ยป.
|
Table des matiรจres
Introduction Gรฉnรฉrale
Chapitre I : Gisement solaire
I.1 Soleil
I.2 Mouvements de la Terre
I.2.1 Rรฉvolution autour du Soleil
I.2.2 Rotation sur elle-mรชme
I.3 Position du Soleil
I.3.1 Coordonnรฉes cรฉlestes horizontales
I.3.1.1 Azimut a
I.3.1.2 Hauteur h
I.3.2 Coordonnรฉes cรฉlestes horaires
I.3.2.1 La dรฉclinaison๏ค
I.3.2.2 L’angle horaire๏ท
I.4 Coordonnรฉes gรฉographiques
I.4.1 Latitude et longitude
I.4.2 Fuseaux horaires
I.5 Temps solaires
I.5.1 Temps Solaire Moyen (TSM)
I.5.2 Temps Universel (TU)
I.5.3 Temps local (TL)
I.5.4 Equation du temps (ET)
I.6 Durรฉe du jour entre les lever et coucher du Soleil
I.7 Mouvement apparent du Soleil
I.8 Rayonnement solaire
I.8.1 Constante solaire
I.8.2 Irradiation solaire
I.8.2.1 Rayonnement direct
I.8.2.2 Rayonnement diffus
I.9 Diffรฉrentes technologies solaires
I.9.1 รnergie solaire passive
I.9.2 รnergie solaire photovoltaรฏque
I.9.3 รnergie solaire thermodynamique
I.9.4 รnergie solaire thermique
Chapitre II : Rรฉseaux de neurones artificiels
II.1 Origineย
II.1.1 Elรฉments biologiques
II.1.2 Modรฉlisation
II.1.3 Historique
II.2 Neurones formelsย
II.2.1. Structure des rรฉseaux de neurones
II.2.2 Fonction de transfert
II.2.2.1 Fonction ยซ seuil ยป
II.2.2.2 Fonction ยซ linรฉaire ยป
II.2.2.3 Fonction ยซ sigmoรฏde ยป
II.3 Architecture des rรฉseaux de neuronesย
II.3.1 Rรฉseaux non bouclรฉs ou rรฉseaux statiques
II.3.2 Rรฉseaux bouclรฉs ou rรฉseaux dynamiques
II.4 Perceptron multicoucheย
II.4.1 Mise en ลuvre du perceptron multicouche
II.4.2 Approximation universelle
II.4.3 Propriรฉtรฉ de parcimonie
II.5 Processus dโapprentissageย
II.5.1 Dรฉfinition
II.5.2 Mode non supervisรฉ
II.5.3 Mode supervisรฉ
II.5.4 Algorithmes de minimisation
II.5.4.1 Descente du gradient
II.5.4.2 Mรฉthode de Newton
II.5.4.3 Mรฉthode de quasi-Newton
II.5.4.4 Problรจme des minima locaux
II.5.4.5 Technique de rรฉtropropagation
II.5.4.6 Erreur quadratique
II.6 Gรฉnรฉralisationย
II.6.1 Dรฉfinition
II.6.2 Facteurs indispensables
II.7 Problรจme de surapprentissageย
II.7.1 Compromis biais et variance
II.7.2 Early stopping
II.7.3 Weight decay
II.8 Approche neuronal bayesienne
II.8.1 Thรฉorรจme de Bayes
II.8.2 Approche probabiliste appliquรฉe ร lโapprentissage neuronal
II.8.3 Distribution de probabilitรฉ a priori
II.8.4 Fonction de vraisemblance
II.8.5 Distribution de probabilitรฉ a posteriori
II.8.6 Approximation gaussienne du posterior
II.8.7 Dรฉtermination des hyperparamรจtres ฮฑ et ฮฒ
II.9 Sรฉries temporellesย
II.9.1 Gรฉnรฉralitรฉs
II.9.2 Modรจle autorรฉgressif ร entrรฉe exogรจne
II.9.3 Modรจle autorรฉgressif ร moyenne mobile et entrรฉe exogรจne
II.9.4 Structures des modรจles
II.9.4.1 Modรจle NNARX
II.9.4.2 Modรจle NNARMAX
II.10 Optimisationย
II.10.1 Technique Automatic Relevance Determination
II.10.2 Estimation de l’erreur de prรฉdiction
II.10.2.1 Erreur quadratique moyenne
II.10.2.2 Erreur absolue moyenne en pourcentage
Chapitre III : Mรฉthode inverse
III.1 Historique des Problรจmes Inverses de la Conduction de Chaleur
III.2 Gรฉnรฉralitรฉs
III.3 Bilan des รฉtudes antรฉrieures
III.4 Objectifs et domaines dโapplications
III.5 Difficultรฉs spรฉcifiques au PICC
III.6 Positionnement des capteurs
III.7 Description des mรฉthodes
III.7.1 Formulation mathรฉmatique du problรจme
III.7.2 Mรฉthodes de retour vers la surface
III.7.2.1 Principe
III.7.2.2 Mรฉthode des diffรฉrences finies
III.7.2.3 Mรฉthode du bilan dโรฉnergie
III.7.2.4 Calcul de la densitรฉ de flux surfacique
Chapitre IV : Rรฉsultats et interprรฉtations
IV.1 Prรฉsentation du logiciel
IV.2 Problรฉmatique de la prรฉdiction de lโirradiation globale
IV.3 Rรฉseaux de neurones artificiels
IV.3.1 Sรฉlection des variables dโentrรฉe de rรฉseau
IV.3.2 Rรฉseaux de neurones statiques
IV.3.2.1 Modรจle neuronal classique
IV.3.2.2 Modรจle neuronal bayesien
IV.3.2.3 Optimisation
IV.3.2.3.1 Recherche de la valeur des hyperparamรจtres
IV.3.2.3.2 Recherche du nombre des neurones cachรฉs
IV.3.2.3.3 Rรฉsultats dโoptimisation
IV.3.2.4 Interprรฉtation
IV.3.3 Rรฉseaux de neurones dynamiques
IV.3.3.1 Modรจle NNARX
IV.3.3.2 Modรจle NNARMAX
IV.3.4 Mรฉthode de persistance
IV.4 Mรฉthode inverse
IV.4.1 Influence du positionnement du premier capteur C1
IV.4.2 Influence du positionnement du second capteur C2
Conclusion gรฉnรฉrale
REFERENCES
ANNEXES
Tรฉlรฉcharger le rapport complet