Vers une ingénierie de bandes des cellules solaires à hétérojonctions a-Si:H/c-Si

Pourquoi le photovoltaïque ?

    Il ne s’agit pas de rêver d’une électricité produite à 100 % par le photovoltaïque ou d’entrer dans une logique de concurrence vis-à-vis des autres formes d’énergies (renouvelables ou non). Disposer de nombreuses alternatives que ce soit l’énergie éolienne, hydraulique, nucléaire ou. . . photovoltaïque est au contraire un avantage. Le photovoltaïque peut en revanche apporter une  part substantielle de la production électrique en remplacement notamment d’une production fortement émettrice de gaz à effet de serre (centrale électrique au gaz par exemple). Il peut aussi alléger la dépendance énergétique du pays. Enfin, il crée une véritable dynamique d’emplois et de croissance dans le pays beaucoup plus que d’autres formes d’énergies. Le cas de la « s un valley » en Allemagne est emblématique. Un objectif envisageable mais ambitieux serait, en France, de produire 5 % d’électricité photovoltaïque. Le photovoltaïque souffre d’un grand nombre d’idées reçues. Certaines confinent même aux mythes voire à l’acharnement. Citons les principales. « Les panneaux solaires dépensent plus d’énergie qu’ils n’en fournissent » Cette affirmation a pu avoir du sens au début du photovoltaïque, et seulement pour certains types de cellules cf. [4]. Cela fait plusieurs décennies que c’est absolument faux. Les panneaux solaires produisent beaucoup plus d’énergie dans leur vie que l’énergie nécessaire à leur production. La notion de remboursement énergétique est le EPT (energy payback time). Selon les technologies et les lieux de production (ensoleillement variable), l’EPT s’étend de 20 à 40 mois pour des durées de vie de 15 à 25 ans. Depuis quelques années, le concept de EYR (energy yield ratio) prend de l’ampleur parce que selon certains auteurs l’EPT a des limites [5]. Le ratio de rendement énergétique va de 3 à 14 [5]. En un mot, le photovoltaïque est (très) largement auto-suffisant ! Le plus rageant est que la question est rarement posée pour d’autres sources d’énergie. Par exemple, certains calculs pour l’extraction de pétrole des sables bitumineux du Canada montrent que l’énergie utilisée pour obtenir le pétrole vaut, au total, quasiment la moitié de l’énergie qu’il pourra produire. Ce point est pourtant différent, en plus, de l’énorme impact environnemental et des émissions de gaz à effet de serre de l’extraction des sables bitumineux. « Il n’y a pas assez de soleil en Europe » Variantes : « les surfaces à utiliser sont trop importantes » ou « il faudrait dix fois la surface de la France ». Il s’agit sans doute de l’antienne la plus entendue. Rappelons d’abord qu’une politique énergétique intelligente n’a pas besoin de viser une hégémonie du photovoltaïque et qu’un objectif raisonnable serait une part non négligeable de l’électricité produite. La carte 1.1 donne un aperçu de l’énergie moyenne disponible en France par an. Considérons, par exemple, la surface nécessaire à la substitution de la moitié de l’électricité nucléaire produite par la France soit 224 TWh puisque la production d’électricité nucléaire est de 448 TWh [1]. L’ensoleillement moyen en France est d’environ 1400 kWh/m2 /an. Les modules vendus par Sanyo2 ont un rendement de 16 % (il s’agit bien des modules et pas des cellules qui ont un rendement supérieur) soit 224 kWh/m2/an produit. Il faut donc environ 1 000 km2 de panneaux solaires pour produire la moitié de l’électricité nucléaire française. Cela représente 0,18 % de la surface du territoire métropolitain ! Même si le calcul est simplifié (et la surface totale de 1000 km2 est certes très importante) il donne un intéressant ordre de grandeur bien éloigné des « plusieurs fois la surface du pays ». avec la technologie utilisée dans cette thèse : les cellules à hétérojonctions.
« L’énergie solaire n’est pas fiable » :Le taux de panne des panneaux solaires est extrêmement faible et les progrès des fabricants considérables. Dans certaines régions, après le passage de cyclones, les seules maisons à disposer d’électricité étaient celles possédant des installations photovoltaïques [6]. Après le tsunami en Indonésie, les organisations humanitaires ont essentiellement utilisé des panneaux solaires, non par souci écologique, mais parce que c’était le moyen le plus pratique et le plus fiable pour produire de l’électricité (approvisionnement en pétrole difficile étant donné l’état du réseau routier).
« Les panneaux solaires sont toxiques » :Une petite famille (parmi toutes les technologies photovoltaïques) utilise du cadmium : les cellules CdTe. Leur part de marché est très faible et de gros efforts ont été réalisés. Mais toutes les technologies majoritaires utilisent essentiellement du silicium (soit du sable). Le recyclage est assez simple. Certains gaz toxiques sont utilisés mais en proportion très faible et avec purificateurs. L’industrie photovoltaïque a même été l’une des premières à appliquer la directive européenne sur le plomb (qui était dans les métallisations). Par délicatesse, nous n’évoquerons ni la toxicité des marées noires, ni celles des déchets radioactifs. Notons d’ailleurs que même les États-Unis s’inquiètent de la possible prolifération de matériaux nucléaires due aux applications civiles [7]. Il est en effet ardu de séparer parfaitement les applications civiles des applications militaires. Ne pas se poser la question de l’étanchéité de cette ligne de démarcation si des centaines de pays utilisaient massivement l’énergie nucléaire (donc une multiplication exponentielle des déchets) relèverait d’un certain manque rigueur.
« Il n’y a pas de soleil tout le temps donc ça ne sert à rien » :Autrement dit, le photovoltaïque est une énergie intermittente. On peut déjà répondre qu’il existe des batteries pour stocker l’électricité. Mais nous ne pensons pas que les système avec batteries soient l’avenir du photovoltaïque. Les systèmes directement connectés au réseau sont moins chers et plus écologiques. En fait, raisonner ainsi c’est penser que la communauté photovoltaïque revendiquerait 100 % de la production d’électricité. Ce n’est pas le cas et l’intermittence est donc un faux problème. La durée de production d’électricité photovoltaïque sur une année reste importante. L’objectif déjà ambitieux de 5 % de l’electricité produite par le photovoltaïque permettrait de diminuer nettement les émissions de gaz à effet de serre et offrirait une intéressante flexibilité. Cet objectif est réalisable avec uniquement des systèmes solaires connectés au réseau donc une production d’électricité pendant les heures d’ensoleillement. On peut noter que durant la canicule, EDF a dû demander des dérogations pour rejeter de l’eau chaude dans les rivières, que la vitesse des vents était quasi nulle et qu’il n’y avait aucun nuage. Répétons donc que les types d’énergies ne s’opposent pas, elles sont plutôt complémentaires et le photovoltaïque peut y jouer un rôle essentiel même « s’il n’y a pas du soleil tout le temps ».

Alors pourquoi n’y a-t-il pas des panneaux solaires partout ?

   Nous avons énoncé et répondu à un grand nombre d’idées reçues relatives à l’électricité photovoltaïque. De nombreux problèmes sont en fait inexistants, pourtant l’électricité photovoltaïque est encore peu présente. Précisons d’abord qu’il y a deux types d’endroits où le photovoltaïque est déjà rentable économiquement même sans prendre en compte ses avantages écologiques : l’espace et les zones éloignées du réseau. Les panneaux solaires pour les satellites ont été le premier moteur pour développer cette énergie. Dans les zones isolées (à partir d’une certaine distance du réseau) ou dans certains pays en voie de développement, le photovoltaïque est l’énergie la plus compétitive. Ensuite, et même s’il est contre-productif d’opposer les énergies les unes aux autres, on ne peut que rappeler que certaines énergies ne coûtent qu’une fraction de leur valeur d’usage et ne paient pas les coûts externes (à commencer par la pollution et le réchauffement climatique). Ces « coûts cachés » sont colossaux, le plus important étant en effet les coûts écologiques. L’IFRI a étudié le surcoût des énergies fossiles dû à la sécurisation militaire des approvisionnements. Citons aussi les dépenses du démantèlement des centrales nucléaires, certes provisionnées, mais fortement sous-estimées de plusieurs milliards d’euros [8]. Quant aux différences de financements R&D elles sont gigantesques. Toutefois, pour les applications classiques, l’électricité photovoltaïque est encore un peu plus chère que les énergies conventionnelles (si l’on ne prend pas en compte les coûts cachés et écologiques). Les installations photovoltaïques sont en plus handicapées par un coût d’achat important. En effet, quasiment tout l’investissement se fait au départ (à comparer par exemple à une centrale électrique au gaz). Le coût d’entretien ne représente qu’une faible fraction du coût total. La notion d’amortissement est donc obligatoire pour pouvoir comparer les prix par an. Financièrement, cela suppose évidemment l’utilisation de crédits. La baisse des prix du photovoltaïque est continue depuis des décennies. Le graphique 1.2 présente cette évolution encourageante : le prix des modules a baissé de quasiment deux décades en 30 ans. Un module photovoltaïque est prêt à l’emploi mais on doit ajouter le prix de la main d’œuvre pour la pose. On note que l’unité est le dollar par Watt, c’est donc le prix d’une puissance et non d’une énergie. Il s’agit en fait de la puissance assignée (anciennement nommée puissance-crête en « Wc »). C’est logique puisque l’énergie dépendra du lieu d’installation et que le marché du photovoltaïque doit avoir une norme. À l’inverse, pour être comparé à d’autres énergies, il faut bien exprimer un coût par unité d’énergie. Ainsi, le prix de l’électricité photovoltaïque exprimée par kWh est très variable parce qu’il dépend à la fois de l’ensoleillement et de la taille de l’installation (économies d’échelle). De fait et selon tous ces paramètres, la fourchette du prix de l’électricité photovoltaïque actuellement s’étend du simple au triple : d’environ 0,20 €/kWh à 0,60 €/kWh. Dernièrement (arrêté du 10 juillet 2006), le prix d’achat de l’électricité photovoltaïque a fortement été augmenté en France (de 0,30 €/kWh à 0,55 €/kWh selon les cas) par rapport à la précédente loi du 10 février 2000. Le ratio prix d’achat de l’électricité photovoltaïque sur prix de vente est maintenant en France à peu près égal à celui des autres pays européens (Allemagne, Espagne). C’est une incitation forte (quoique tardive) bien évidemment très positive. Rappelons que le prix de vente EDF pour particuliers (avec taxes) est d’environ 0,13 €/kWh et plutôt 0,18 €/kWh pour un foyer standard si l’on tient compte de l’abonnement. Le tarif entreprises (au-delà d’un seuil de consommation important) est de 0,06 €/kWh. Le prix de l’électricité photovoltaïque est donc maintenant de l’ordre de grandeur des électricités conventionnelles même s’il reste un peu supérieur. En plus des avantages écologiques, de croissance (emplois), de diversification et d’indépendance énergétique, le photovoltaïque possède aussi le bénéfice d’initier et d’encourager une démarche d’économies d’énergie chez le consommateur. Installer des panneaux photovoltaïques à l’échelle d’un immeuble ainsi qu’un affichage de la consommation quotidienne a des vertus pédagogiques certaines. Nous pensons que si dans les 5 ans la France n’a pas passé la vitesse supérieure concernant l’industrie photovoltaïque, nous aurons pris un retard irrémédiable. Pour baisser les coûts, les usines de fabrication de panneaux solaires sont de plus en plus grandes et le « ticket d’entrée » sera trop élevé. Rappelons que dans les années 1980 tout le savoir-faire et la technologie pour la fabrication d’écrans plats étaient en France mais qu’un démarrage trop tardif a enterré cette industrie.

Un survol des plasmas

   On oublie souvent, même en sciences, que la majorité de la matière dans l’univers est à l’état de plasma. La matière qui nous entoure est certes sous forme solide, liquide ou gazeuse mais 99,9 % de l’univers est sous forme de « gaz ionisé », définition la plus concise d’un plasma. En effet, les étoiles sont principalement des sphères de plasma. Une partie de l’atmosphère (à partir de l’ionosphère) est aussi sous forme de plasma. La physique des plasmas est l’une des plus riches et des plus dynamiques. Nous ne donnerons ici que quelques ordres de grandeur et règles pratiques et ne prétendons nullement expliquer les concepts des plasmas. Dans cette perspective, on lira avec profit la bible des plasmas de MM. Lieberman et Lichtenberg [1] qui alterne théorie et exemples pratiques. Les chapitres 1 à 3 constituent une bonne introduction. Le chapitre 11 concerne particulièrement ce travail de thèse puisqu’il traite des décharges capacitives, la technique de dépôt que nous avons majoritairement utilisée. La référence [2] est plus physique et plus axée sur les plasmas pour la fusion nucléaire. Sans entrer dans les méandres de la taxinomie des plasmas, notons que leurs applications sont extrêmement vastes et s’articulent en trois grandes familles qui recouvrent des communautés de chercheurs différentes :
1. plasmas industriels. Actuellement, la plus vaste : gravures pour la microélectronique, durcissement ou traitement de matériaux, dépollution de gaz, dépôts d’isolants, de conducteurs et matériaux amorphes etc. Il s’agit des plasmas de décharge, des plasmas d’arc.
2. plasmas thermonucléaires. L’application du futur est la génération d’électricité par fusion nucléaire.
3. plasmas spatiaux et astrophysiques avec notamment la propulsion spatiale. Les enjeux théoriques sont grands mais les retombées concrètes ne sont pas à négliger. Dans notre travail de thèse, nous avons utilisé des plasmas dits froids (cf. plus bas) et précisément les  plasmas de décharge pour :
1. déposer des matériaux du type a-Si:H ou pm-Si:H (majeure partie de notre travail) avec des réacteurs de décharge à couplage capacitif RF (partie 2.1.3).
2. pulvériser un oxyde transparent conducteur comme l’ITO à l’aide de réacteurs de pulvérisation cathodique magnétron RF ou DC (partie 2.3).
3. graver des couches de a-Si:H dans des réacteurs à couplage capacitif RF mais avec des gaz fluorés (partie 3.1.1). Les ordres de grandeur de ce manuscrit feront principalement référence au réacteur du laboratoire nommé ARCAM (réacteur à couplage capacitif RF) dans sa configuration basique (diode, pas de polarisation sur le substrat) puisque c’est le réacteur le plus utilisé. Le plasma est un milieu complexe, mélange de photons, d’atomes neutres, d’ions et d’électrons mais « macroscopiquement » électriquement neutre. Contrairement à un gaz, un plasma est donc un (plus ou moins bon) conducteur électrique. Nous reviendrons sur l’échelle de cette neutralité. Les plasmas ont souvent une couleur caractéristique due aux photons excités en son sein mais peuvent être sombres. L’un des paramètres les plus significatifs des plasmas est le taux d’ionisation définit par : α =nn0 + n (2.1) où n représente la densité des charges (positives ou négatives) et n0 la densité des neutres. La densité des charges n correspond à la densité des ions positifs ou à la somme de la densité des électrons et des ions négatifs. À l’échelle du plasma, la densité des ions positifs est égale à la somme de la densité des ions négatifs et des électrons. Par exemple, dans le réacteur ARCAM à couplage capacitif, le taux d’ionisation α est de l’ordre de 0,1 % à 6 %. Le taux d’ionisation est donc relié à la densité électronique ne . L’autre paramètre fondamental pour classer et caractériser un plasma est la température électronique Te . En toute rigueur, le concept de température électronique n’a de sens que dans un système en équilibre thermodynamique. Ce n’est pas le cas  des plasmas « froids » puisque la population d’électrons n’est pas à l’équilibre avec celle des ions (énergie des ions bien inférieure). C’est d’ailleurs pour cette raison qu’ils sont appelés plasmas froids puisque la plus grande partie du plasma (dont les ions) est à une énergie (≈ température) inférieure aux électrons. Sans doute, devrait-on parler de quasi-températures mais l’usage est d’employer les termes de température électronique (Te) ou ionique (Ti). Pour les énergies les plus courantes dans les plasmas, le fait que les électrons soient plus énergétiques que les ions découle simplement de leur inertie beaucoup plus faible (masse inférieure aux ions). Un autre usage est d’exprimer cette énergie-température en électron-volt et non en kelvin (plus significatif notamment pour comparer avec d’autres phénomènes physiques). La correspondance la plus simple s’obtient en divisant la température en kelvin par e/kB (environ 11 604). On peut aussi considérer la distribution du gaz d’électrons et le facteur sera alors différent. Les ordres de grandeurs des diverses familles de plasmas sont résumés sur la figure 2.1 en utilisant les deux paramètres Te et ne . Pour cette figure, une hypothèse de distribution maxwellienne du gaz d’électrons a été retenue. Il faut donc multiplier les électrons-volts par 7 740 pour obtenir des kelvins. Le plasma du cœur solaire (qui permet la vie sur terre) est en dehors de cette figure avec des densités sont de l’ordre de 1025 cm−3 et des températures sensiblement inférieures aux réacteurs de fusion inertielle. Les valeurs typiques de nos plasmas de dépôt à couplage capacitif sont de 0,5 eV à 4 eV pour la température électronique et de 109 cm−3 à 1011 cm−3 pour la densité électronique

ITO

   Dans une cellule à hétérojonction, l’émetteur amorphe possède une résistance carrée trop importante et un matériau plus conducteur est nécessaire pour améliorer la collecte des porteurs. Comme les photons entrent par la face avant, ce matériau doit être aussi le plus transparent possible. On utilise à cet effet des oxydes transparents conducteurs (TCO en anglais pour Transparent Conductive Oxide). Notons qu’une équipe italienne revendique une technique s’affranchissant du TCO (un anti-reflet classique suffirait). Pour diminuer la résistivité et l’énergie d’activation de la couche a-Si:H de type n, ils créent un siliciure de chrome en évaporant du chrome qui est ensuite gravé. L’énergie d’activation de l’émetteur a-Si:H n+ passe de 0,24 eV à 0,017 eV avec le siliciure de chrome à la surface [19]. On pense généralement qu’une excellente transparence optique est incompatible avec une bonne conductivité électrique. En effet, un tel matériau nécessite un gap d’au moins 3,3 eV ce qui rend le dopage difficile. En ce sens, les TCOs sont des matériaux singuliers. Il existe une grande variété d’oxydes transparents conducteurs : oxydes de zinc, oxydes d’étain, oxydes d’indium qui peuvent être dopés avec un grand nombre d’éléments atomiques (selon les cas : Al, In, Ga, F, Sn). Le plus utilisé et le premier découvert [20] est l’oxyde d’indium dopé à l’étain soit In2O3:Sn plus connu sous son sigle anglais d’ITO (pour Indium Tin Oxide18). C’est ce TCO que nous avons utilisé pour fabriquer nos cellules à hétérojonctions. Ajoutons que tous ces TCOs sont de type n (les porteurs sont donc des électrons) et que la découverte récente de TCOs de type p pourrait ouvrir la voie à une nouvelle électronique même si leur conductivité est encore très mauvaise [21, 22]. L’ITO possède de remarquables qualités : transparence supérieure à 80 % voire 90 % sur le spectre visible, résistivité faible (de 1·10−4 Ω·cm à 5·10−4 Ω·cm pour les meilleurs ITO mais pouvant excéder 5 ·10−3 Ω·cm pour des ITO médiocres), très bonne adhérence sur une multitude de substrats. Depuis une décennie, ses champs d’applications s’étendent : écrans d’ordinateurs portables, de télévisions, montres, boucliers thermiques (il réfléchit efficacement l’infrarouge moyen) et. . . cellules solaires. C’est actuellement le TCO offrant le meilleur rapport qualité-prix et le plus « pratique ». Toutefois, l’indium est un élément assez rare dans la croûte terrestre et son prix pourrait devenir un inconvénient si la demande augmentait drastiquement. Il n’y a pas à proprement parler de mines d’indium celui-ci étant obtenu en tant que sous-produit du zinc. Entre 2002 et 2006, le prix du kilogramme d’indium est passé de 80 $ à 1000 $19. Même après cette augmentation, la part de l’indium dans le prix final des produits de haute technologie reste minime et la pratique du recyclage de ce matériau est de plus en plus courante et efficace. Les risques de pénurie n’existent pas à court terme (mais à moyen terme des cartels pourraient être créés). Au pire, d’autres TCO comme le ZnO:Al pourront prendre le relais. Lorsqu’il est transparent et conducteur, l’ITO est un semiconducteur de type n fortement dégénéré dont le gap intrinsèque est de 3,53 eV. Typiquement, la mobilité des électrons varie de 1 cm2V −1s −1 à 50 cm2V −1 s−1 et la densité de 5·1020 cm−3 à 2·1021 cm−3 . L’ITO existe sous de nombreuses formes : ITO amorphe, nanocristallin, polycristallin. L’orientation cristalline des différents ITO (selon le type de dépôts, la taille des grains etc.) n’est pas encore parfaitement comprise mais la concentration en oxygène dans la couche joue un rôle prépondérant [23]. Sous sa forme amorphe, l’ITO n’est conducteur que s’il est sous-stœchiométrique c.-à-d. In2O3−x:Sn car ce sont les lacunes en oxygène qui libèrent alors le plus d’électrons libres [24]. Même sous des formes polycristallines, il peut y avoir autant de porteurs libres dus aux lacunes d’oxygène qu’aux ions étain. L’oxyde d’indium (IO) cristallise dans une structure où une partie des atomes In (4/16) sont en position In1, les autres (12/16) en position In2 (cf. figure 2.9 tirée de [25]). On note les lacunes d’oxygène (Ovac) essentielles pour la conductivité de l’IO ou de l’ITO. Classiquement, l’étain est en position substitutionnelle ou interstitielle.

Ellipsométrie

   Nous avons utilisé quotidiennement l’ellipsométrie pour caractériser in situ ou ex situ des couches minces de a-Si:H, de pm-Si:H, des alliages, de l’ITO ou la surface du c-Si. L’ellipsométrie est un outil de caractérisation à la fois puissant, pratique et extrêmement fiable. Il est d’ailleurs étonnant de constater à quel point l’ellipsométrie est sous estimée dans les laboratoires de physique ne possédant pas d’ellipsomètres ou de polarimètres. On pourrait même parler de suspicion alors que cela fait plusieurs décennies que les données issues de l’ellipsométrie ont montré un très bon accord avec une multitude d’autres techniques (SIMS, XRD, TEM et HR-TEM) pour tous types de matériaux [31, 32, 33, 34, 35]. Sans doute s’agit-il d’un syndrome thomasien du « voir pour y croire » injustifié et qui s’explique par la nécessité d’un modèle pour interpréter les mesures ellipsométriques oubliant, d’une part, que toute mesure physique repose sur un modèle et, d’autre part, que les techniques de mesures plus « reconnues » (SIMS, TEM etc.) possèdent aussi de nombreuses limitations, artefacts et pièges. Bien sûr, l’ellipsométrie a des limites (milieux fortement anisotropes ou dépolarisants). Elle est majoritairement utilisée en science des matériaux, en microélectronique mais les applications en biologie sont de plus en plus courantes où l’ellipsométrie offre un vaste champ d’investigations. L’ellipsométrie est une technique de mesures polyvalente, rapide, non destructive, sans contact, quasiment non perturbatrice et permettant des mesures in situ et en temps réel. Elle donne accès à une multitude d’informations : épaisseur du film, structure, rugosité de surface (et d’interface éventuellement), propriétés optiques (absorption, indice). Le nom ellipsométrie signifie mesure de l’ellipse puisque l’ellipsométrie est fondée sur la détermination du changement de l’ellipse de polarisation après réflexion sur l’échantillon étudié. La polarisation de la lumière est la preuve flagrante de son caractère vectoriel. L’état de polarisation correspond à  l’orientation du vecteur E~ 28. Par exemple, la lumière est polarisée rectilignement si le champ E~ garde une direction fixe. Une lumière n’est pas forcément polarisée (c’est même souvent le cas comme la lumière naturelle) si la direction du champ E~ change de façon aléatoire. On parle de lumière partiellement polarisée. Le schéma 2.16 illustre ces aperçus.

Effets latéraux

  La mesure des cellules solaires après le dépôt d’ITO est entachée de nombreuses erreurs dues aux courants latéraux dans la couche a-Si:H n+ [1]. Les couches de silicium amorphe sont déposées sur toute la surface de l’échantillon de c-Si alors que le plot d’ITO, qui est l’électrode de contact, ne mesure que 2 mm ou 4 mm de diamètre (voir figure 3.2). La couche a-Si:H n+ ne peut pas être considérée comme une équipotentielle et le champ électrique s’étend latéralement au-delà de la surface de l’ITO biaisant les mesures. La densité de courant de court-circuit est largement surestimée car la surface effective de la diode est supérieure à celle de l’ITO. Le facteur de forme est sous-estimé parce qu’il existe un important courant de fuite dû à la couche de silicium amorphe. Seul le Vco est correct quoique légèrement surestimé (car le courant est largement surestimé mais la dépendance du Vco avec le courant n’est que logarithmique). Pour toutes ces raisons, on procède à une gravure de la (ou des) couches de silicium amorphe. On utilise une gravure SF6/O2 dans un réacteur RF-PECVD (Nextral). En connaissant la vitesse de gravure, on peut graver entièrement la couche de silicium amorphe sans utiliser une durée excessive. Dans notre gamme de paramètres, le dioxygène ne contribue pas stricto sensu à la gravure mais il permet d’augmenter nF et ainsi la vitesse de gravure puisque le fluor est l’espèce gravante [2, chap. 15] (formation principalement de SiF4). Les conditions de gravure sont : température de 100 °C, pression de 150 mTorr, puissance de 25 W (soit une densité de puissance de 30 mW·cm−2 ), débit de SF6 de 40 sccm et de O2 de 10 sccm (soit 20 % de O2 dans le plasma). Dans ce cas, la vitesse de gravure est d’environ 5 Å/s et la durée de la gravure est adaptée à l’épaisseur des couches amorphes. Intéressons-nous à un exemple de mesures J(V) sous obscurité et sous lumière de l’une de nos premières cellules (no 303282). La courbe J(V) de la figure 3.3 avant gravure présente deux anomalies par rapport à la courbe J(V) « canonique » : un fort courant d’obscurité augmentant nettement avec la tension inverse et, en direct, une courbe « en S ». De -0,2 V à 0,2 V les courbes sont pratiquement symétriques et ont un comportement de type résistif. Dans cette gamme de tension, tout se passe comme si l’on avait une résistance parallèle, l’importance des fuites latérales masquant, même en direct, le comportement en exponentiel. Quant au courant inverse, il est élevé pour ce type de diode (de l’ordre de 10−3 A·cm−2 ) et, à l’évidence, ne sature pas. Au contraire, l’augmentation de la densité de courant en inverse est parfaitement linéaire en fonction de la tension (à gauche sur la figure 3.4 avec un R2 de 0,9996). Après la gravure SF6/O2, le courant inverse a diminué de plus de deux décades et l’augmentation en fonction de la tension inverse n’est plus qu’en racine carrée (à droite sur la figure 3.4). L’utilisation d’une couche de « passivation » ne diminue que très peu le courant inverse. Nous avons utilisé plusieurs types de couches : dépôt de pm-Si:H ou de a-SiC:H et le résultat était identique. Pour ce type de cellules, le courant d’obscurité est donc essentiellement un courant de fuite dû à la couche de silicium amorphe dopé n.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
1 Énergie photovoltaïque 
1.1 Problématique de l’énergie  
1.2 Le photovoltaïque 
1.2.1 Pourquoi le photovoltaïque ?
1.2.2 Principes
1.2.3 Les cellules photovoltaïques à hétérojonctions
Bibliographie
2 Réalisation et caractérisation des cellules solaires 
2.1 Dépôt par plasma de matériaux 
2.1.1 Un survol des plasmas
2.1.2 Comparaison plasma-semiconducteur
2.1.3 Décharges capacitives RF et PECVD
2.2 La grande famille des matériaux a-Si:H 
2.3 ITO 
2.4 Autres étapes technologiques 
2.4.1 Nettoyage
2.4.2 Face arrière
2.4.3 Métallisations
2.4.4 Texturation
2.4.5 Évaporation
2.5 Caractérisation des couches minces
2.5.1 Ellipsométrie
2.5.2 Mesures de conductivité
2.5.3 Mesures de passivation
2.5.4 Caractérisation de l’ITO
2.6 Caractérisation des cellules solaires
Résumé
Bibliographie
3 Optimisation des cellules solaires 
3.1 Cellules de petite taille
3.1.1 Effets latéraux
3.1.2 Voie sèche pour retirer l’oxyde natif
3.1.3 Voie humide pour retirer l’oxyde natif
3.2 Maîtrise de la variabilité sur wafers de 100 mm 
3.3 Optimisation de l’ITO
3.4 Optimisation de l’émetteur des SHJ 
3.4.1 Couche dopée n
3.4.2 Couche intrinsèque
3.4.3 SHJ avec BSF localisé
3.4.4 Pré-plasma
3.4.5 Résistivité du c-Si
3.4.6 Post-plasma
3.5 Métallisations 
3.6 Cellules texturées 
3.7 Hétérojonction en face arrière
3.7.1 Séquence de fabrication
3.7.2 Dopage de la couche p
3.7.3 Plan d’expériences
3.7.4 Face arrière avec aluminium évaporé
3.7.5 Couche intrinsèque en face arrière
3.7.6 Sensibilité de l’interface arrière
3.7.7 Face arrière avec ITO
Vade-mecum
Bibliographie
4 Interfaces 
4.1 Exploration de l’interface a-Si:H/c-Si
4.1.1 Bombardement ionique
4.1.2 Croissance épitaxiale sur c-Si
4.1.3 Plus près de la surface du c-Si
4.2 Passivation
4.2.1 Un peu de théorie
4.2.2 Passivation de l’émetteur et effet de l’hydrogène
4.2.3 Passivation d’une couche a-Si:H intrinsèque seule
4.2.4 Passivation de la face arrière
Conclusions
Bibliographie
5 Discussion sur les paramètres prépondérants 
5.1 Quantification des paramètres
5.1.1 Diffusion de l’hydrogène
5.1.2 Simulations et logiciels
5.2 Discontinuités de bande 
5.2.1 Fondamentaux
5.2.2 Hétérojonction a-Si:H/c-Si
5.2.3 Rôle de l’hydrogène dans les discontinuités de bande
Synthèse
Bibliographie
Conclusions et perspectives
Bibliographie
Liste des communications scientifiques

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *