Vers l’intégration de fonctions d’imagerie sur le plan focal infrarouge

La miniaturisation des systèmes optiques est un domaine en pleine expansion dans le monde scientifique actuellement. En effet, miniaturiser les systèmes optiques permet de réduire leur encombrement, leur masse, ainsi que leur coût de production, grâce à la diminution de leurs dimensions et à l’augmentation de leur volume de production. Moins volumineux et moins chers, ils peuvent alors prétendre à être diffusés dans des applications diverses, à la fois civiles et militaires.

La production de caméras « grand public », fonctionnant dans le domaine spectral visible, telles que des caméras de téléphone portable ou encore des webcams équipant les ordinateurs, constitue un premier exemple de la miniaturisation des systèmes optiques. Le développement et la diffusion de ce type de caméras trouvent leurs origines dans l’évolution du bloc de détection d’une part et du bloc optique d’autre part. Depuis leur apparition, les détecteurs matriciels de type CMOS (complementary metal oxyde semiconductor) n’ont cessé d’évoluer, leur format devenant de plus en plus grand et leurs pixels de plus en plus petits. Cette progression permet de réduire la consommation d’énergie de ces détecteurs, et d’améliorer la qualité des images fournies. Par ailleurs, l’émergence de nouvelles techniques de fabrication de composants optiques ouvre la voie à une réduction drastique de leur coût. Par exemple, le moulage de composants optiques par injection de polymères est adapté à de larges volumes de production et donc à une production bas coût. Un seul moule est fabriqué, avec des techniques d’usinage très précises à l’échelle du wafer. Il permet ensuite une production de masse de lentilles identiques, dont le matériau, le PMMA par exemple, est peu cher. Le bloc optique est assemblé avec le détecteur à l’échelle du wafer, en se basant largement sur des techniques issues de l’industrie de la micro-électronique [1, 2]. Ainsi, l’ensemble du procédé de fabrication de ces caméras est optimisé de façon à permettre une production à grande échelle.

Les systèmes optiques fonctionnant dans le domaine spectral de l’infrarouge s’inscrivent également dans cette tendance de miniaturisation. L’infrarouge est le domaine spectral privilégié pour la vision de nuit, ou lorsque la transmission de l’atmosphère ne permet pas de réaliser de l’imagerie visible (en présence de fumées par exemple). Il existe trois bandes du spectre infrarouge où la transmission de l’atmosphère est bonne :
– les courtes longueurs d’onde, entre 0,75 et 2, 5 µm : la bande SWIR (short wavelength infrared).
– les moyennes longueurs d’onde, entre 3 et 5 µm : la bande MWIR (middle wavelength infrared).
– les grandes longueurs d’onde, entre 8 et 12 µm : la bande LWIR (long wavelength infrared). Comme pour le visible, miniaturiser les systèmes infrarouges facilite leur utilisation dans des applications diverses. Dans le domaine civil, les systèmes infrarouges sont employés pour la thermographie, la video-surveillance, l’automobile (pour l’aide à la conduite de nuit), la domotique, la recherche de personnes lors d’opérations de sauvetage, la détection de points chauds pour la sécurité incendie… Dans le domaine militaire, ils permettent d’assurer des fonctions de surveillance, veille, protection, pilotage, visée, équipement de fantassins, de véhicules terrestres… Par ailleurs, avec l’apparition des drones, les caméras infrarouges sont appelées à être embarquées sur des véhicules de plus en plus petits et de plus en plus légers, qui doivent avoir la capacité de naviguer seuls. Pour ce type d’applications, il est nécessaire de concevoir des caméras infrarouges compactes ayant un grand champ d’observation.

Expression de l’écart normal maximal en bord de pupille et en bord de champ

Compte tenu des contraintes cryogéniques, l’architecture optique à intégrer dans le cryostat doit être la plus simple et la plus compacte possible afin de limiter la masse à refroidir. Nous définissons un système simple comme un système qui comporte seulement trois éléments : un seul composant optique, un diaphragme et un détecteur. Par contre, considéré séparément, chacun de ces trois éléments peut être complexe si nécessaire. Par exemple, le composant optique peut présenter des surfaces asphériques ou diffractives ; il peut également être une matrice de microlentilles de forme complexe (par exemple courbée) ou bien une matrice de microlentilles où toutes les microlentilles ne sont pas identiques entre elles. Le détecteur peut, quant à lui, être courbé ce qui permettrait par exemple de réduire les aberrations de champ [15]. La démarche de conception optique consiste à réduire l’amplitude des aberrations du système, de sorte qu’il se rapproche le plus possible d’un système optique limité par la diffraction pour lequel l’écart normal W vérifie W<<λ. Nous allons maintenant rappeler l’expression de W dans le cas général, puis dans le cas d’un système simple qui nous intéressera par la suite.

Jouer sur l’indice de réfraction, la cambrure de la lentille et la position de la pupille

Si nous choisissons la valeur de la cambrure conformément à l’équation (1.35), il est possible de corriger simultanément l’aberration sphérique et la coma en asphérisant la lentille (β ≠ 0). Si la pupille reste dans le plan de la lentille, le terme d’astigmatisme ne peut pas être nul. Cependant, il peut être réduit en éloignant la pupille de la lentille (t ≠ 0), ce qui revient à introduire un peu de coma et de distorsion. La courbure de champ peut être réduite en choisissant un matériau pour la lentille avec un indice de réfraction élevé. Cependant, si jouer sur l’indice de réfraction, la cambrure de la lentille et la position de la pupille n’est pas suffisant pour obtenir un système limité par la diffraction, l’approche traditionnelle consiste à augmenter le nombre de surfaces optiques, ce qui conduit souvent à augmenter le nombre de composants optiques. Des approches originales ont cependant été envisagées pour limiter le nombre d’éléments optiques : dans la suite de cette sous-section, nous allons en détailler trois.

Une première approche consiste à s’inspirer des systèmes visuels des animaux, qui sont souvent très simples d’un point de vue optique. Un point commun à tous les animaux est qu’ils ont une rétine courbe, comme le décrit Land [21]. La rétine peut être soit de forme concave, chez les mammifères terrestres par exemple, soit de forme convexe, chez les invertébrés par exemple. En revanche, seuls des détecteurs plans sont actuellement disponibles dans le commerce pour réaliser des systèmes optiques. Les détecteurs courbés permettraient cependant de corriger efficacement des aberrations telles que la courbure de champ [15, 22, 23]. En 2008, Ko et al. [24] ont développé la première caméra hémisphérique avec un détecteur courbe constitué de 16×16 pixels. Elle fonctionne dans le visible avec un champ d’observation de 90◦ . Durant sa thèse menée au CEA LETI et achevée en 2011, Delphine Dumas [22] a montré qu’il est possible de courber des détecteurs infrarouges non refroidis de type micro-bolomètres, sous forme concave et sous forme convexe. Ce travail a abouti à la conception d’un système de type « œil humain » fonctionnant dans l’infrarouge, en associant une lentille classique à un microbolomètre de courbure concave [25].

Une deuxième approche consiste à augmenter le nombre de dioptres sans augmenter le nombre d’éléments optiques. Il faut pour cela rajouter des surfaces réfléchissantes sur un même composant, appelé lentille catadioptrique. Dans ce paragraphe, nous allons donner trois exemples de lentilles catadioptriques. Tremblay et al. [26, 27] ont proposé une architecture optique où les rayons subissent de multiples réflexions à l’intérieur d’un seul composant grâce à des réflecteurs concentriques. Cette architecture est illustrée dans la figure 1.6(a). Il est possible de maintenir une étendue géométrique constante en s’assurant que l’aire de la pupille reste la même par rapport à un système classique non obturé. Cependant, le champ d’observation F OV des systèmes de Tremblay et al. diminue quand le nombre de surfaces réflectives augmente. Ceci constitue la principale limitation de ces systèmes. Un deuxième exemple de lentille catadioptrique est une lentille à miroir grand champ proposée par Gimkiewicz et al. [28] en 2008. Elle peut être facilement intégrée sur un petit drone. Son schéma optique est donné dans la figure 1.6(b). En 2006, Christensen et al. [8] ont introduit un troisième concept de lentille catadioptrique entièrement solidaire du détecteur. Ce système, illustré dans la figure 1.6(c), met en parallèle plusieurs modules qui imagent tous une partie différente de la scène (leurs axes optiques sont inclinés les uns par rapport aux autres). Chaque module comprend des miroirs mobiles qui sélectionnent la partie de la scène à imager, et un miroir qui focalise la lumière sur le détecteur. Comme les images acquises par chaque module sont fortement sous-échantillonnées, Christensen et al. proposent de scanner les miroirs et d’acquérir une série d’images, de façon à ce que celles-ci soient décalées entre elles d’une quantité inférieure à la taille d’un pixel. En appliquant un algorithme de superrésolution à partir de cette séquence d’images, Christensen et al. espèrent obtenir une image mieux échantillonnée pour chaque voie optique, comme ils l’ont montré au travers de simulations dans la référence [8]. En 2010, la même équipe a réalisé les modules optiques, les a assemblés puis intégrés sur un détecteur CCD. L’épaisseur d’un module optique intégré sur le détecteur est égale à 5 mm. Comme les miroirs du module optique ne peuvent pas être scannés, c’est le détecteur CCD qui est décalé d’une quantité inférieure à la taille d’un pixel. Ce travail est décrit dans la référence [29]. La principale difficulté expérimentale consiste à scanner les miroirs, ce qui n’est pas facilement réalisable avec les modules optiques directement intégrés sur le détecteur. C’est pourquoi, en 2012, dans la référence [30], la même équipe a développé un système optique plus encombrant, mais fonctionnant sur le même principe que le système précédent (chacune des voies image une partie de la scène et la résolution de chaque sous image est améliorée par super-résolution). Chaque voie est alors constituée d’un système optique macroscopique, plus encombrant que les modules originaux, mais où les miroirs peuvent être scannés facilement. D’autre part, les auteurs ont amélioré l’algorithme de super-résolution appliqué et l’ont testé sur des images de terrain. Ils ont restauré des fréquences spatiales allant jusqu’à quatre fois la fréquence de Nyquist associée au détecteur.

Une troisième approche peut être développée dans le domaine de l’infrarouge. Les systèmes optiques associés à des détecteurs infrarouges refroidis sont souvent complexes. En effet, la pupille de sortie doit être confondue avec le diaphragme froid afin que le détecteur ne voit que les parois froides de l’écran froid ou bien la scène. Dans la pratique, le système optique doit donc conjuguer la pupille d’entrée avec le diaphragme froid du cryostat. Cette contrainte de conjugaison de pupille complexifie le système optique. Durant sa thèse, Guillaume Druart [12] a développé une approche originale qui consiste à intégrer le système optique directement dans l’écran froid du cryostat. Le diaphragme froid devient alors la pupille d’entrée du système optique. En s’affranchissant de la contrainte de la conjugaison des pupilles, il est possible de proposer des architectures optiques beaucoup plus simples que les systèmes traditionnels. D’autre part, dans l’infrarouge, les aberrations peuvent être facilement corrigées en n’utilisant qu’un seul composant optique, car les matériaux disponibles ont un indice de réfraction élevé et sont peu dispersifs. Guillaume Druart [12] a utilisé cette approche pour concevoir un système optique simple fonctionnant dans l’infrarouge, entre 3 µm et 5 µm. Le détecteur utilisé est un détecteur plan refroidi de la filière HgCdTe. Ce système, entièrement intégré dans le cryostat, est composé d’un diaphragme qui est la pupille d’entrée, d’un ménisque en silicium et du détecteur infrarouge. Néanmoins, dans le visible, les matériaux ont en général un indice plus faible, et sont plus dispersifs que les matériaux pour l’infrarouge, il est donc plus compliqué de concevoir un système simple.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
Chapitre 1 Mise en évidence de stratégies de conception pour simplifier et miniaturiser les systèmes optiques
1.1 Introduction
1.2 Rappel des définitions de paramètres importants caractérisant un système optique
1.3 Expression de l’écart normal maximal en bord de pupille et en bord de champ
1.3.1 Rappel de l’expression de l’écart normal d’un système optique
1.3.2 Expression de l’écart normal maximal en bord de pupille et en bord de champ
1.4 Mise en évidence de stratégies pour la simplification et la miniaturisation des systèmes optiques
1.4.1 Influence de la minimisation de l’écart normal maximal sur la résolution angulaire et le nombre de points résolus
1.4.2 Jouer sur l’indice de réfraction, la cambrure de la lentille et la position de la pupille
1.4.3 Augmenter le nombre d’ouverture N : l’imagerie sans lentille
1.4.4 Diminuer le champ d’observation F OV : les yeux à facettes des insectes
1.4.5 Diminuer la distance focale f : le concept TOMBO
1.5 Application des stratégies de miniaturisation pour concevoir des caméras infrarouges cryogéniques compactes
1.6 Conclusion
Chapitre 2 Conception d’architectures optiques compactes pour des caméras infrarouges cryogéniques
2.1 Introduction
2.2 Etat de l’art des techniques de fabrication de matrices de microlentilles
2.3 Conception d’une architecture optique pour une caméra sur puce infrarouge cryogénique
2.3.1 Cahier des charges général de la caméra sur puce
2.3.2 Contraintes technologiques à respecter pour la réalisation de la caméra sur puce
2.3.3 Système optique simple basé sur une seule lentille
2.3.4 Système optique simple basé sur deux lentilles
2.3.5 Tolérancement de l’architecture à deux étages de la caméra sur puce
2.3.6 Dessin de l’écran froid et du capot du cryostat compatibles avec le grand champ de la caméra
2.3.7 Diaphragmes et suppression de la communication entre les voies
2.3.8 Etude de l’impact du refroidissement du système sur ses dimensions
2.3.9 Estimation de la parallaxe de la caméra sur puce
2.4 Conception d’une caméra de type téléobjectif multivoies
2.4.1 Cahier des charges général de la caméra compacte à concevoir
2.4.2 Conception d’une voie de type téléobjectif
2.4.3 Tolérancement d’une voie du téléobjectif
2.4.4 Conception du téléobjectif infrarouge multivoies
2.5 Conclusion
Chapitre 3 Réalisation de la caméra sur puce infrarouge cryogénique
3.1 Introduction
3.2 Réalisation de matrices de microlentilles de forte puissance optique
3.3 Réalisation d’un détecteur de faible facteur de remplissage
3.3.1 Etat de l’art des méthodes de mesure de la FTM de détecteurs
3.3.2 Méthodologie pour dimensionner un banc de mesure de FTM avec un CSIG
3.3.3 Acquisition d’une première image expérimentale
3.3.4 Principe général de la méthode de traitement des données expérimentales pour extraire l’information de FTM
3.3.5 Résultats des mesures de la FTM du pixel moyen par zone
3.3.6 Choix des paramètres technologiques adéquats pour réaliser le détecteur de la caméra sur puce
3.4 Report des matrices de microlentilles avec précision au plus près du détecteur
3.5 Conclusion
Chapitre 4 Reconstitution d’une image bien résolue à partir de l’image multivoies acquise par la caméra sur puce
4.1 Introduction
4.2 Etat de l’art de quelques techniques de super-résolution
4.2.1 Interpolation non-uniforme
4.2.2 Réarrangement des pixels, ou shift and add
4.2.3 Inversion de matrice dans l’espace de Fourier
4.2.4 Inversion de matrice dans l’espace réel
4.2.5 Méthode de rétro-projection itérative
4.3 Etat de l’art des techniques d’estimation des décalages entre les imagettes
4.4 Etapes préliminaires au traitement d’une image expérimentale
4.4.1 Correction du bruit spatial fixe du détecteur matriciel de la caméra sur puce
4.4.2 Correction des pixels défectueux
4.4.3 Découpage des 16 imagettes à partir de l’image brute
4.4.4 Estimation des décalages entre les imagettes
4.5 Traitement d’une image expérimentale avec un algorithme inspiré de la méthode shift and add
4.5.1 Principe
4.5.2 Mise en œuvre
4.5.3 Bilan
4.6 Traitement d’une image expérimentale par interpolation non-uniforme
4.7 Conclusion
Conclusion

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *