Photodiode
La photodiode est aujourd’hui le photodétecteur standard dans les capteurs d’images. La zone de collection est formée par la zone de charge d’espace de la jonction polarisée en inverse. Étant donnée l’architecture d’un pixel à base de photodiode, deux paramètres sont essentiels pour qu’un pixel soit performant en imagerie : son rendement de détection et sa capacité de jonction.
• Photodiodes CMOS
Remarque : Les dimensions que nous indiquons ici correspondent à une technologie 0,35 μm et peuvent être considérées comme typiques. Sauf indication contraire, la taille de la zone de charge d’espace de la jonction est donnée pour une tension inverse de 3,3 V. La Figure I.2 résume la structure d’un circuit intégré CMOS sur substrat P. On peut y identifier quatre types de jonction :
1. N+/P-Well : une zone de charge d’espace d’environ 250 nm placée à 200 nm de l’interface oxyde-substrat. Une jonction présentant un maximum de sensibilité dans le vert ou le jaune.
2. P+/N-Well : une zone de charge d’espace d’environ 150 nm placée à 200 nm de l’interface oxyde-substrat. Une sensibilité chromatique équivalente à la précédente, avec un rendement quantique un peu moins élevé.
3. N-Well/P-Well : une zone de charge d’espace d’environ 1,5 μm recevant les photons « par la tranche » et profonde d’environ 3 μm. Une diode présentant « forcément » un bon rendement quantique et une sensibilité chromatique « large ».
4. N-Well/P-Sub : une zone de charge d’espace d’environ 3 μm placée à 3,5 μm de l’interface oxyde-substrat. Une diode présentant un bon rendement quantique avec une sensibilité chromatique plutôt dans le rouge.
4’. N-Well/P-Sub : une zone de charge d’espace d’environ 1.5 μm recevant les photons « par la tranche » et profonde d’environ 3 μm. Une diode présentant un très bon rendement quantique avec une sensibilité chromatique « large ».
Le rendement de détection dépend donc fortement de la profondeur où se situe la zone de collection (cf. Figure I.5). Ainsi, une diode N+/Psub sera plus sensible aux longueurs d’onde proches du bleu qu’une diode Nwell/Psub qui captera préférentiellement la lumière rouge [Lin et al.-02]. En revanche, les photocharges ne sont pas seulement collectées dans la zone de charge d’espace de la jonction. En effet, des électrons (resp. des trous) photogénérés dans l’anode (resp. la cathode) peuvent gagner, par diffusion, la zone de charge d’espace où ils sont accélérés puis collectés. Cette diffusion latérale a été exploitée par [Dierickx et al.-97] qui réussit à collecter une grande partie des photocharges créées ailleurs que dans la zone de collection (cf. Figure I.3). De cette manière une grande partie de la surface du pixel est utilisée, alors qu’elle n’est que de 40 % environ dans les pixels classiques. La courbe de potentiel de la section « A » (cf. Figure I.3) montre bien une « cuvette » de potentiel dans la zone substrat dopée « p- », ce qui a tendance à maintenir les photocharges dans ce volume jusqu’à ce qu’ils atteignent la zone de collection. Le courant d’obscurité, provenant des courants de fuite dans le photodétecteur en l’absence de tout flux lumineux incident, est de l’ordre de 30 nA/cm² et peut être réduit jusqu’à une dizaine de nA/cm² en adoptant quelques précautions lors du dessin des masques, notamment au niveau des jonctions des composants [Wu et al.-04] [Tian et al.-01]. La configuration double jonction, associant la réponse spectrale des deux photodiodes (cf. Figure I.4) pour réduire le nombre de filtres optiques colorés nécessaires à la reconstitution d’une image couleur, a été mise à profit par [Lu-01] et [Findlater et al.-03a]. La séparation spectrale est moins satisfaisante que dans le cas de l’approche classique basée sur une mosaïque de Bayer. En revanche, le nombre d’artefact est réduit. En ce qui concerne la photodétection, le pic de la réponse spectrale de la photodiode Pdiff/Nwell se situe à environ 530 nm alors que celui de la jonction Nwell/Psub se trouve autour de 710 nm. Cela est bien en accord avec ce que nous avons évoqué précédemment, à savoir que la profondeur de création des charges libres dépend de la longueur d’onde du photon incident. Effectivement, les photons absorbés dans la photodiode Pdiff/Nwell, dont la zone de déplétion se situe près de la surface du semiconducteur, ont une longueur d’onde plus faible que ceux absorbés par la photodiode Nwell/Psub qui possède une zone de déplétion plus enterrée.
• Photodiode verrouillée, ou « pinned » :La photodiode verrouillée est issue de la technologie CCD [Burkey et al.-84]. Il s’agit d’une diffusion N sur un substrat P avec une fine couche de diffusion P+ en surface qui permet de fixer le potentiel de surface à celui du substrat, d’où son appellation « verrouillée ». Ce potentiel est fixé de telle manière que la zone N soit totalement déplétée afin de permettre un transfert total des photocharges (cf. § III.1.a. pour le fonctionnement du pixel associé). Les photodiodes verrouillées permettent d’obtenir un facteur de détection élevé (cf. Figure I.6) et un courant d’obscurité plus faible de l’ordre de 40 pA/cm² [Findlater et al.-03b], au prix de modifications de quelques niveaux du procédé de fabrication CMOS. Le motif de Bayer est employé pour déterminer par interpolation la couleur de la lumière reçue par un pixel. Il se matérialise sur la matrice de pixels par l’alternance de deux lignes de pixels. L’une est constituée d’une succession de filtre vert, puis rouge, puis vert à nouveau, etc… ; et l’autre d’une succession de filtre bleu, puis vert, puis bleu, etc… Le premier capteur d’image utilisant une photodiode verrouillée a été décrit par [Lee et al.-95]. Leur objectif était de combiner les performances des photodétecteurs issus de la technologie CCD avec les avantages en termes d’intégration système de la technologie CMOS. Aujourd’hui, les photodiodes verrouillées constituent le standard dans les capteurs d’images car l’architecture des pixels qui les utilisent (à 4 transistors, cf. § III.1.a. ) permet de réduire drastiquement la taille des pixels en partageant certains transistors, ainsi que de diminuer le bruit de lecture [Findlater et al.-03b] [Kasano et al.-05].
• Photodiode en silicium amorphe hydrogéné, a-Si :H. :Il y a une dizaine d’années, on pensait que la taille des pixels ne pourrait pas descendre au dessous de 5×5 μm² environ à cause des limites optiques [Fossum-97]. Elle est actuellement de l’ordre de 3.5×3.5 μm² dans les produits vendus et de 2.5×2.5 μm² pour la nouvelle génération en cours de développement. Cette diminution a été rendue possible à la fois grâce à des progrès optiques et électroniques. Cependant, la focalisation optique est de plus en plus difficile et coûteuse à réaliser, à tel point qu’une limite en l’état actuel des technologies est prédite autour de 2×2 μm² [Rhodes-04]. Une alternative apparue au début des années 90 [Fisher et al.-92] semble prometteuse et est actuellement en cours de développement chez certains fabricants de semi-conducteurs tel que Agilent [Theil-03]. Elle consiste à intégrer les photodétecteurs au dessus des différents niveaux d’oxydes, de métaux et de polysilicium constituant les circuits CMOS (cf. Figure I.7). Cette technologie est aussi appelée « à dépôt fin sur ASIC » ou « à photodétecteurs surélevés ». De plus, cette dissociation de la fabrication de l’élément photosensible du reste du circuit est très intéressante car elle permet de concevoir non seulement des photodétecteurs mais aussi des photoémetteurs de type OLEDs [Theil-03]. Cela ouvre donc la voie à de nouvelles et nombreuses applications [Dong et al.-05] [Karim et al.-03] [Benthien et al.- 00]. Le procédé de fabrication des photodiodes en silicium amorphe nécessite trois couches supplémentaires (cf. Figure I.7) dont le dépôt n’était pas bien maîtrisé à ses début mais qui le devient désormais [Theil-03] [Lule et al.-00a]. La couche supérieure est un oxyde conducteur transparent, la couche intermédiaire réalise une jonction de type pin et la couche inférieure constitue l’électrode arrière. Cette approche dispose de plusieurs atouts. Tout d’abord, le gap du silicium amorphe étant de 1.7 eV, sa réponse spectrale est alors concentrée sur le domaine visible (cf. Figure I.8). De plus, le rendement de détection est élevé (cf. Figure I.8), il peut atteindre 80%. Un autre élément important est que cette réponse spectrale peut être ajustée en fonction de l’épaisseur de la couche « i » de la diode pin (cf. Figure I.8 droite), mais aussi en fonction de la tension inverse appliquée à la photodiode [Zhu et al.-95]. Le courant d’obscurité de ces structures est de l’ordre de 100 pA/cm² [Lule et al.-00a]. Cependant, des problèmes subsistent, notamment un vieillissement non maîtrisé des couplages résistifs entre pixels voisins, et une non uniformité spatiale importante à cause des disparités des rendements de détection entre pixels voisins.
Flux photonique, puissance, illumination
Il est impératif lors de toute caractérisation photonique de connaître précisément la quantité de photons incidents. Deux paramètres sont couramment employés pour décrire les conditions expérimentales d’éclairement : l’illumination et la puissance lumineuse. L’illumination tout d’abord, s’exprime en lux. Pour des raisons pratiques, cette unité lie l’énergie lumineuse par unité de surface à la perception de l’œil humain. Ainsi un objet situé à 30 cm d’une bougie représente une illumination de 10 lux. La puissance lumineuse est quant à elle exprimée en W.m-2. Cependant, l’intérêt de ces deux unités est de quantifier le flux photonique incident, que l’on exprime en photons.m-2.s-1. Nous exprimons ci-dessous les relations qui existent entre ces trois paramètres.
APS-3T
Dans le cas d’un pixel actif à trois transistors, l’élément photosensible est une photodiode. Comme illustré sur la Figure I.15, le nœud flottant du pixel est initialisé à une tension référence Vrst par le transistor M1. Puis, sous l’action du photocourant généré par la photodiode, les charges présentes sur ce noeud flottant vont être évacuées et le potentiel résultant sur la capacité va alors diminuer. La pente de décroissance est proportionnelle à l’intensité lumineuse reçue par la photodiode. Il en est donc de même pour la différence de potentiel entre les deux instants d’échantillonnage. Ainsi l’information utile est obtenue par double échantillonnage aux instants « t1 » et « t2 » puis différence, ce qui permet de s’affranchir du bruit spatial fixe dû aux dispersions des paramètres intrinsèques des composants d’un pixel à un autre lors de la fabrication. A priori, on pourrait penser qu’il s’agit d’un double échantillonnage corrélé mais la nécessité de conserver un temps d’exposition oblige, pour ne pas avoir des cadences images trop lentes, à échantillonner d’abord la phototension, puis à procéder au reset (cf. Figure I.15). Le modèle de photoréponse développé pour cette architecture de pixel par [Shcherback & Yadid-Pecht04] est d’un grand intérêt car il permet d’optimiser le compromis existant entre le gain de conversion et la collection des photocharges. En effet, augmenter le gain de conversion signifie diminuer la capacité de la photodiode, c’est-à-dire en première approximation sa surface, et donc diminuer le nombre de photocharges collectées.
Circuits de lecture du pixel
La conception du circuit de lecture est elle aussi critique car le niveau de bruit en dépend directement. La lecture ligne par ligne et en parallèle des pixels (cf.Figure I.25), avec un circuit de lecture par colonne, permet de réduire énormément la bande passante de ces circuits par rapport au cas d’un dispositif unique en sortie, comme c’est le cas des capteurs CCD. Par conséquent, leur contribution au bruit total est minimisée. De plus les contraintes de surface sont moins fortes en bout de colonne qu’au niveau pixel ce qui autorise une meilleure optimisation lors de la conception. Un circuit réalisant l’opération de double lecture est représenté Figure I.24. Dans le cas de l’APS-3T, ces deux instants ne peuvent appartenir à la même pente d’intégration (cf.Figure I.15 page 24), le bruit de reset subsiste et seul le bruit spatial fixe du pixel et celui en 1/f du transistor suiveur peuvent être éliminés. Par contre, les pixels actifs à quatre transistors APS-4T, qui séparent le photodétecteur du lieu de conversion charge-tension, autorisent ce double échantillonnage tout en conservant le même bruit de reset : l’opération est alors appelée à double échantillonnage corrélé. De cette manière, la différence des deux potentiels échantillonnés fournit le signal utile et le bruit lié au courrant d’obscurité. Le rapport signal sur bruit se trouve ainsi augmenté de 40 dB environ.
|
Table des matières
INTRODUCTION GENERALE
CHAPITRE I. CAPTEURS D’IMAGES CMOS, ETAT DE L’ART
INTRODUCTION
I. PHOTODETECTION EN TECHNOLOGIE CMOS
I.1. De la lumière à l’électron, phototransduction et photodétection
I.2. Photodétecteurs
I.2.a. Photodiode
I.2.b. Phototransistor
I.2.c. Photogrille
II. OPTIQUE
II.1. Échantillonnage spatial
II.1.a. Tesselations
II.1.b. Interdépendance entre pixels et optique : l’aliasing
II.2. Chemin optique d’un imageur
II.3. Photométrie et radiométrie
II.3.a. Flux photonique, puissance, illumination
II.3.b. Charges électriques photogénérées, « utiles »
III. CAPTEURS POUR L’IMAGERIE, LES IMAGEURS
III.1. Conditionnement de l’information électrique, le pixel image
III.1.a. Pixels actifs
III.1.b. Perspectives
III.2. Du pixel à l’image
III.2.a. Bruit électronique dans un capteur d’image
III.2.b. Circuits de lecture du pixel
III.2.c. Architecture système d’un imageur, création de l’image
III.2.d. Performances typiques d’un imageur
III.3. L’imageur, un système sur puce dans un contexte concurrentiel
IV. CAPTEURS POUR LA VISION ARTIFICIELLE, LES RETINES
IV.1. Conditionnement spécifique de l’information électrique, le pixel « intelligent »
IV.1.a. Traitement spatial
IV.1.b. Traitement temporel
IV.2. Quelques applications
IV.2.a. Applications avec traitement spatial
IV.2.b. Applications avec traitement temporel
IV.2.c. Quelques succès commerciaux
IV.3. Architectures et approche de conception « système »
IV.3.a. Configurations géométriques
IV.3.b. Rétines programmables
CONCLUSION
CHAPITRE II. ESTIMATION DU MOUVEMENT, THEORIE ET CAPTEURS
INTRODUCTION
I. LE CONTEXTE DE LA STABILISATION VIDEO
I.1. Stabilisation mécanique
I.2. Stabilisation électronique
II. PERCEPTION ARTIFICIELLE DU MOUVEMENT
II.1. Problématique
II.1.a. Le problème d’ouverture
II.1.b. Systèmes visuels biologiques et perception du mouvement
II.2. Estimation locale du mouvement, le flot optique
II.2.a. Les méthodes différentielles
II.2.b. Les méthodes de mise en correspondance
II.2.c. Les méthodes de corrélation
II.3. Estimation du mouvement global
II.3.a. Choix du modèle de mouvement
II.3.b. Choix du support d’estimation
II.3.c. Techniques d’estimation du mouvement global
III. PERCEPTION DU MOUVEMENT AU NIVEAU PIXEL
III.1. Mesures locales
III.1.a. Mise en correspondance d’éléments caractéristiques
III.1.b. Approche différentielle
III.1.c. Corrélations spatio-temporelles
III.2. Des mesures locales vers une information globale
III.3. Synthèse des détecteurs
CONCLUSION
CHAPITRE III. STABILISATION VIDEO PAR MESURES LOCALES PERIPHERIQUES
INTRODUCTION
I. SPECIFICATIONS DU SYSTEME
I.1. Analyse des mouvements globaux inter trames
I.2. Moyenne temporelle et recadrage
II. TECHNIQUE D’ESTIMATION DU MOUVEMENT GLOBAL PROPOSEE
II.1. Principe
II.2. Formalisation
II.3. Extraction des paramètres globaux : un problème d’optimisation
II.4. Caractérisation théorique
II.4.a. Dynamique et linéarité
II.4.b. Robustesse au bruit d’estimation des mouvements locaux
II.4.c. Robustesse aux mouvements parasites
II.4.d. Conclusion
II.5. Estimations des mouvements locaux périphériques
II.5.a. Appariement de blocs de pixels
II.5.b. Appariement de codes de texture
II.5.c. Appariement de blocs de pixels après extraction de contrastes
III. PROCEDURE DE VALIDATION
III.1. Séquences réelles
III.2. Séquences synthétiques paramétrées
IV. PERFORMANCES OBTENUES
IV.1. Estimation des mouvements locaux périphériques
IV.1.a. Appariement de blocs de pixels
IV.1.b. Appariement de codes de texture
IV.1.c. Appariement de blocs de pixels avec extraction de contrastes
IV.1.d. Bilan des performances
IV.2. Estimation du mouvement global (EMG)
IV.2.a. EMG à partir d’appariements de codes de texture
IV.2.b. EMG à partir d’appariements de blocs de pixels
IV.2.c. EMG à partir d’appariements d’images contrastées
IV.3. Précision de l’E.M.G. pour la stabilisation vidéo
CONCLUSION
CHAPITRE IV. INTEGRATION A UN IMAGEUR CMOS
INTRODUCTION
I. IMAGEUR CMOS ET ESTIMATION DU MOUVEMENT GLOBAL EMBARQUEE
I.1. Evaluation des ressources requises pour l’EMG
I.1.a. Spécifications
I.1.b. Détermination de la charge de calcul
I.1.c. Charge de calcul totale
I.2. Trois architectures systèmes pour réaliser ce traitement du signal
I.3. Architecture du système sur puce proposé
II. VERS L’INTEGRATION DE TRAITEMENTS PERIPHERIQUES DANS LE PLAN FOCAL
II.1. Modélisation du bruit spatial fixe
II.2. Performances obtenues sur données bruitées et améliorations
II.2.a. Transformée du « recensement »
II.2.b. Extraction de contrastes spatiaux par réseaux résistifs
III. INTEGRATION DES TRAITEMENTS PERIPHERIQUES DANS LE PLAN FOCAL
III.1. Codage de texture, transformée du « recensement ternaire »
III.2. Détection de contrastes orientés
III.2.a. Prédisposition à une détection unidimensionnelle
III.2.b. Extraction des contrastes spatiaux
IV. ADÉQUATION ALGORITHME ARCHITECTURE
CONCLUSION
CONCLUSION GENERALE
BIBLIOGRAPHIE
BREVET ET PUBLICATIONS
ANNEXES
Télécharger le rapport complet