L’exposition humaine aux ondes radiofréquences

La dosimétrie numérique

La dosimétrie repose sur l’estimation du DAS dans les tissus via la valeur du champ électrique induit dans les tissus biologiques. Dans le cas de la dosimétrie numérique, ces champs induits sont calculés à l’aide de méthodes numériques. Ces 20 dernières années, de gros efforts ont été fournis dans la communauté scientifique pour développer des méthodes numériques permettant de résoudre temporellement et spatialement les équations de Maxwell. On peut citer par exemple la méthode des éléments finis dans le domaine fréquentiel (FEFD), la méthode de Galerkin discontinue dans le domaine temporel (DGTD) ou bien encore la méthode des différences finies dans le domaine temporel (FDTD). Ce travail de thèse est réalisé dans le cadre de l’utilisation de la FDTD comme outil d’évaluation du champ électrique induit. Cette méthode est basée sur une résolution explicite d’équations aux dérivées partielles dépendant du temps. Cette méthode numérique a été développée par Yee en 1966 [Yee 1966] pour résoudre les équations de Maxwell et a depuis prouvé toute son efficacité dans la résolution de problèmes électromagnétiques [Taflove and Hagness 2005]. Elle est majoritairement utilisée dans les études dosimétriques. Dans l’approche de la FDTD, l’espace de calcul D ⊂ R 3 borné est maillé à l’aide de parallélépipèdes orthogonaux v ⊂ D de dimensions ∆x(v), ∆y(v) et ∆z(v) qui servent à représenter des objets en trois dimensions à géométrie complexe et constitués de matériaux hétérogènes ; chaque voxel est ainsi associé à des propriétés diélectriques particulières. la notation v désignera invariablement un voxel parallélipédique du domaine de calcul D. Le calcul du champ électrique s’effectue itérativement dans le domaine temporel sur un intervalle de temps [0, T] avec un pas de temps ∆T constant qui doit respecter les conditions de stabilité [Taflove and Hagness 2005] afin d’assurer la convergence du schéma explicite de la FDTD.

La modélisation des différentes sources d’exposition

Pour l’évaluation numérique de l’exposition, la diversité des sources de rayonnements électromagnétiques, leurs usages et leurs localisations diverses supposent des techniques de modélisation adaptées à chaque type de source. Les sous-sections suivantes traitent de cette problématique et de la contribution de mes travaux à ce domaine.

L’exposition induite par une source proche

Une source proche est définie ici comme une source de rayonnement utilisée à de très faibles distances du corps humain (i.e. de l’ordre d’une dizaine de centimètres). Cette catégorie de source englobe les téléphones portables, les tablettes tactiles, les ordinateurs portables ainsi que tous les objets connectés qui peuvent être situés à proximité ou dans le corps humain. On modélise généralement ce type de source électromagnétique directement dans le domaine FDTD. Différents modèles voxelisés de téléphones portables, de tablettes ou d’ordinateurs ont été réalisés [Ghanmi 2012] .Les antennes de ces modèles sont excitées électriquement par des courants lors de la simulation numérique, ce qui permet d’évaluer le champ induit (et par conséquent le DAS induit) par ces sources dans un modèle anatomique. L’exposition humaine à ces sources, en particulier l’exposition induite par les téléphones portables, a fait l’objet de nombreuses études telles que [Christ and Kuster 2005, Beard et al. 2006].

L’exposition induite par une source lointaine

Quand on parle de sources lointaines, on considère que la source du rayonnement électromagnétique est située à de grandes distances du corps humain. Typiquement une telle source lointaine peut être une station de base de macrocell qui sera localisée à des distances variant de la centaine de mètres à quelques kilomètres du corps humain. La taille caractéristique du corps humain étant faible comparée à ces distances, le rayonnement à l’endroit où se situe la personne peut être localement assimilé à une onde plane, c’est-à-dire une onde dont les fronts d’onde sont des plans infinis et perpendiculaires à une même direction de propagation. Pour simuler numériquement ce rayonnement dans la FDTD, on utilise la technique dite de la boîte de Huygens au travers du principe d’équivalence [Merewether et al. 1980, Holland and Williams 1983]. Le principe est tout d’abord d’insérer le modèle anatomique dans une boîte virtuelle ayant approximativement les mêmes dimensions que le domaine FDTD et appelée boîte de Huygens. Ensuite, à l’aide de la description du rayonnement par une onde plane, on calcule les courants équivalents correspondant à cette onde plane tout autour de la boîte de Huygens avec une résolution égale à celle du maillage utilisé. Enfin en utilisant le principe d’équivalence, l’excitation des courants équivalents permet d’évaluer le champ induit par un tel rayonnement dans tout le domaine inclus dans la boite de Huygens. L’exposition humaine aux ondes planes a également fait l’objet de nombreuses études telles que [Hirata et al. 2009, Conil et al.2011].

Hybridation du chaos polynomial et du Krigeage universel

La méthodologie proposée par ces travaux est basée sur l’utilisation des polynômes sélectionnés par l’algorithme LARS dans un développement de chaos polynomial comme fonctions de régression dans la formulation du Krigeage universel de l’Eq. (4.28). Nous proposons donc d’utiliser la capacité de généralisation des développements en séries polynomiales ainsi que la capacité du LARS à sélectionner l’ensemble creux de polynôme le plus pertinent pour construire l’approximation du Krigeage universel. Le but est de sélectionner les fonctions qui apportent le plus d’information utile au modèle de Krigeage.
En faisant cela, le processus Gaussien n’a plus pour rôle que de modéliser le résidu entre la sortie et la partie déterministe de la formulation constituée par ces fonctions de régression.
L’algorithme utilisé pour construire un tel modèle de Krigeage se présente comme suit :
Construire un plan d’expériences initial d’une taille donnée ; Appliquer l’algorithme LARS à un ensemble candidat de polynômes issu d’un développement de chaos polynomial ; A chaque étape de sélection du LARS, construire le modèle de Krigeage universel correspondant à l’ensemble courant de polynômes sélectionnés ;
Appliquer une LOOCV sur chaque métamodèle ainsi construit pour évaluer leur précision ; Sélectionner alors le modèle avec la plus grande capacité de généralisation, i.e. celui produisant l’erreur leave-one-out la plus faible ;
Si la capacité de généralisation obtenue n’est pas satisfaisante, augmenter la taille du plan d’expériences en ajoutant de nouveaux points et reprendre l’algorithme à la seconde étape.

Le chaos polynomial

A l’origine, la théorie du chaos polynomial a été introduite par Wiener comme le chaos polynomial en dimension finie [Wiener 1938] dans le cas de variables d’entrée aléatoires Gausiennes. Dans ce cadre, la sortie est explicitement exprimée dans un espace adéquat à l’aide d’une base constituée de polynômes d’Hermite multivariés orthogonaux au sens de la densité de probabilité jointe des variables aléatoires d’entrée. Ce développement en séries polynomiales a été plus tard étendu à d’autres types de variables aléatoires à l’aide de différentes bases de polynômes [Xiu and Karniadakis 2002, Lucor and Karniadakis 2004] amenant le développement du chaos polynomial généralisé. Concernant l’estimation des coefficients déterministes du développement en séries polynomiales, un travail d’ampleur a été mené dans le cadre des méthodes dites intrusives et plus particulièrement de la méthode des élément finis stochastiques spectraux [Ghanem and Spanos 2003, Soize and  Ghanem 2004] qui utilise une combinaison du développement de Karhunen-Loeve [Karhunen 1947] avec la méthode des éléments finis pour des systèmes physiques modélisés par des problèmes linéaires elliptiques aux conditions limites. Plus tard, les méthodes dites non intrusives sont apparues comme une alternative dans ce domaine. Dans le cadre des méthodes non intrusives, deux approches sont classiquement distinguées pour l’estimation des coefficients déterministe du méta-modèle :
La méthode de projection [Le Maitre et al. 2002, Silly-Carette 2008, Gilli et al. 2013] qui est basée sur l’orthogonalité des polynômes du chaos. Le principe est de projeter tout le développement polynomial sur le sous-espace associé au polynôme dont on veut calculer le coefficient. Cette projection nécessite pour chaque coefficient le calcul d’une intégrale. En pratique cette approche est assez couteuse car le calcul intégral nécessite des schémas de quadrature basées sur des méthodes de quasi-Monte Carlo.
Même si des techniques de quadratures creuses ont pu être développées Matthies and Keese [2005], l’approche par projection reste une approche couteuse en temps de calcul pour nos cas d’application. L’avantage de cette méthode reste néanmoins le fait que la précision de l’estimation du coefficient est uniquement liée à la précision du calcul d’intégral. On a donc, en théorie, accès à la valeur exacte des coefficients.
La méthode de régression introduite par [Isukapalli 1999] dont le principe est de tronquer le développement et de réduire l’estimation des coefficients à un problème de régression [Blatman and Sudret 2010, Berveiller et al. 2006].

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction générale 
2 L’exposition humaine 
2.1 L’évaluation de l’exposition
2.2 La dosimétrie numérique
2.3 Les modèles de corps humains
2.4 La modélisation des différentes sources d’exposition
2.4.1 L’exposition induite par une source proche
2.4.2 L’exposition induite par une source lointaine
2.4.3 L’exposition induite par une source intermédiaire
2.5 Analyse comparative des expositions fœtales induites par des sources intermédiaires et des sources lointaines
2.5.1 Les modèles anatomiques étudiés
2.5.2 Comparaison de l’exposition à une onde plane avec celle de la description en ondes sphériques
2.5.3 Résultats de la femme japonaise enceinte
2.5.4 Résultats pour Victoria enceinte
2.6 Conclusion
3 L’analyse statistique et son application à la problématique de l’exposition
3.1 Etat de l’art sur l’analyse statistique de l’exposition
3.2 Modélisation statistique de l’espace d’entrée
3.2.1 Espace probabiliste
3.2.2 Paramètres d’entrée spatiaux
3.2.3 Paramètres d’entrée morphologiques
3.2.4 Transformée isoprobabiliste
3.3 Etude statistique de la sortie du modèle physique
3.3.1 Les moments statistiques
3.3.2 Etude des quantiles de sortie
3.3.3 Analyse de sensibilité globale de paramètres indépendants
3.3.4 Analyse de sensibilité globale de paramètres dépendants
3.4 Conclusion
4 Analyse statistique par méta-modèle 
4.1 Le chaos polynomial
4.1.1 Historique
4.1.2 La théorie du chaos polynomial
4.1.3 Les troncatures pleine et hyperbolique
4.1.4 La troncature LARS
4.1.5 Sélection et validation de modèle
4.1.6 Analyse de sensibilité et analyse de signature
4.1.7 Planification d’expériences
4.1.8 Exemple d’application : exposition d’un modèle d’enfant à une station de base de femtocell 4.1.9 Exemple d’application : exposition en zone urbaine : calcul du champ réfléchi par un immeuble à géométrie variable
4.2 Le Krigeage universel
4.2.1 Un bref historique
4.2.2 La formulation du Krigeage universel
4.2.3 Les fonctions d’autocorrélation
4.2.4 Le meilleur prédicteur linéaire sans biais (BLUP)
4.3 Hybridation du chaos polynomial et du Krigeage universel
4.3.1 Exemple d’application analytique : la fonction d’Ishigami
4.3.2 Exemple d’application analytique : la fonction de Borehole
4.3.3 Exemple d’application analytique : la fonction de Sobol
4.3.4 Application à l’exposition d’un foetus à un système femtocell
4.3.5 Application à l’étude de l’influence de l’incertitude morphologique
4.4 Conclusion
5 Planification d’expérience adaptative pour l’estimation du quantile à 95% de la distribution de sortie 
5.1 La méthode BOAS (Bootstrapped Oriented Adaptive Sampling )
5.1.1 La théorie du bootstrap et les intervalles de confiance
5.1.2 Stratégie adaptative de planification d’expériences
5.1.3 Critères d’arrêt et estimateurs de précision
5.1.4 Exemple analytique : la fonction d’Ishigami
5.1.5 Exemple analytique : la fonction de Borehole
5.1.6 Exemple analytique : la fonction de Sobol
5.1.7 Exemple d’application : exposition d’un modèle d’enfant à une station de base de femtocell  5.2 Comparaison de performances avec la méthode GPS (Gaussian Process Shrunk )
5.2.1 La méthode GPS
5.2.2 Comparaison de performances avec la fonction d’Ishigami
5.2.3 Comparaison de performances avec la fonction de Borehole
5.3 Conclusion
6 Conclusion générale et perspectives

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *