Concept de la radio cognitive
La radio cognitive peut être vue comme une association intelligente entre la radio conventionnelle (nombre fixe de systèmes et de services) tel qu’un terminal GSM, et la radio logicielle (variation dynamique des systèmes et services). En résumé, c’est un système radio mobile capable de s’adapter dynamiquement à son environnement en fonction de la demande (débit, puissance, nombre d’utilisateurs) et par rapport à l’occupation spectrale à un moment donné [Jondral, 2008]. Sonder son environnement spectral permet ainsi de garantir à l’utilisateur un débit optimum pour un taux d’erreur bit (BER) et un temps de latence minimum. Ainsi le concept de radio cognitive induit la coopération entre terminaux afin d’optimiser au mieux le partage du spectre. De nos jours, les débits de données sont de plus en plus importants avec le développement de nouveaux services tels que la vidéo en streaming ou la visiophonie. Dans ces cas précis, c’est le partage du spectre qui est le plus limitant. L’émetteur ne profite pas des bandes adjacentes qui sont potentiellement libre et qui pourrait lui permettre d’étendre sa bande utile. Une étude menée en 2009 en collaboration avec Vaclav Valenta et Martha Suarez dans le laboratoire ESYCOM [Valenta, 2009a] et présenté à [ShC, 2010] met en avant ce phénomène de sous occupation de certaines bandes radio. Ce point sera développé dans la seconde partie de ce chapitre. Notre problématique est alors d’étudier la faisabilité d’un système d’émission reconfigurable de façon opportuniste. Cependant, les architectures actuelles sont principalement basées sur l’utilisation de bloc analogique optimisés en performances pour un standard mais à faible potentiel de reconfigurabilité [Dellsperger, 2006]. Tenant compte de ces limitations, on voit néanmoins apparaitre dès 1999 [Mittola, 1999] la théorie de la Software Defined Radio (SDR). Le principe est de numériser au maximum les éléments de la chaine d’émission afin d’intervenir de façon logicielle dans la reconfiguration fréquentielle de l’architecture. Cet ensemble de blocs numériques se regroupe sous l’appellation Digital Front End (DFE). D’après cette théorie, le but est de ne conserver analogique dans la chaine d’émission, qu’une partie de l’amplification et le filtrage d’antenne. Cependant, nous verrons dans le second chapitre que le dimensionnement de ces blocs et très contraignant et limité par les verrous technologiques, pour les fréquences porteuses au-delà du GHz. Pour le moment, il est difficile à un système d’être hautement reconfigurable à la fois en fréquence, en largeur de bande et en puissance de façon opportuniste en fonction de l’état du spectre. Ce qui définit le principe de la multiradio, est la capacité de reconfigurer les blocs tout en connaissant à l’avance les plages de variation des paramètres, définis par le nombre de bandes cellulaires ou de connectivité existantes. Cela se fait en intervenant directement dans la couche physique sur les blocs analogiques et numériques par commandes discrètes.
Bluetooth
Le Bluetooth est déployé partout dans le monde. C’est un standard dit global. La méthode d’accès multiple du standard est le FHSS. C’est une méthode qui utilise plusieurs canaux répartis sur une large bande de fréquence. Ce sont des sauts qui suivent une séquence pseudo aléatoire connue de l’émetteur et du récepteur. La modulation utilisée est une GFSK, qui est une FSK associée à un filtre gaussien (1 ou 0 binaire). Le mode de duplexage est le TDD. La séparation entre les canaux est de 1MHz. La largeur du signal est également de 1MHz. Le débit symbole maximal par canal est de 1Ms/s. Le débit parole maximum est de 64Kbit/s. Concernant le débit maximum par utilisateur, il est variable selon la communication. En communication asymétrique le débit peut atteindre 723kbit/s , par contre en communication dite « symétrique », celui-ci tombe à 433kbit/s et 57kbit/s en communication « Forward ». Concernant les bandes allouées, comme le Wifi, le Bluetooth est basé sur l’utilisation des bandes ISM. Cette bande peut donc varier d’un pays à l’autre. D’un point de vue global, la bande utilisée est : 2400-2483,5 MHz. Mais en France, cette bande est réduite à 2446,5 – 2483,5MHz ; soit une bande de 37MHz allouée. La très faible portée de ce standard permet une utilisation quasi infinie des canaux, car il y a peu de chance de saturation du réseau. De par la bande allouée qui se trouve dans la bande ISM 2.4GHz, ce standard se trouve en présence du WiFi et du WiMAX. Nous pouvons imaginer qu’un utilisateur téléphone via WiMAX en utilisant une oreillette. Dans ce cas nous nous trouvons confrontés à une perturbation entre deux standards dans le même mobile. On peut imaginer avoir aussi la réception Bluetooth , brouillée par une borne WiFi ou une station de base WiMAX se trouvant à proximité de l’utilisateur. C’est alors une perturbation externe qui est induite. On peut aussi imaginer une perturbation induite par l’harmonique 3 d’une porteuse dans la bande d’émission GSM (824-827MHz) ; jusque dans la bande (2470-2480MHz) du Bluetooth.
Critères liés à l’implémentation
• Linéarité : Ce paramètre est essentiellement lié aux éléments non linéaires d’une chaine d’émission, que sont principalement les mélangeurs et les amplificateurs. Il est donc nécessaire de quantifier la distortion du signal induite par les différents éléments de l’architecture. On peut définir deux type de distorsion ; une distorsion en phase ou conversion (AM / PM) qui entraine une rotation de la constellation et une distorsion en amplitude (AM /AM) qui entraine une compression de la constellation. Une distorsion du signal à l’émission entraîne une augmentation de l’EVM (Error Vector Magnitude), donc une mauvaise démodulation à la réception et donc un risque accru d’erreurs symboles et binaire (risque de perte de données). Il existe par exemple des techniques extérieures de linéarisation numériques DPD (Digital Predistorsion), mais on peut également concevoir l’architecture de façon à limiter les effets non linéaires plutôt que de les corriger.
• Imperfections : Le terme imperfection désigne ici les effets de non-idéalité de traitement du signal à émettre (gain, déphasage, retard…), du à de multiples causes technologiques : sensibilité dans la réalisation des éléments, désappariement, erreur de phase, coefficient de qualité…. Par exemple, un déséquilibre entre les voies des composantes I et Q du signal bande de base ou bien une désynchronisation des voies de phase et d’enveloppe dans le cas d’une architecture polaire (EER) entraine une modification du signal à émettre que l’on peut difficilement corriger car due à l’information elle-même (signal image par exemple ou présence du signal OL dans la bande utile). Là encore l’effet est vite perceptible sur le signal et entraine des remontées spectrales et un bruitage des points de la constellation. Une procédure de calibration spécifique est souvent nécessaire pour minimiser ces effets.
• Complexité de la conversion D/A : Elle caractérise la facilité d’implémentation et l’intégration des étages de conversion numériqueanalogique. Certaines architectures sont amenées à utiliser plusieurs DAC dans un but de traitement du signal (création de notches en décalant deux DACs) là où certaines n’en utilisent qu’un seul. Il faut également prendre en compte la vitesse d’horloge nécessaire à chacun des DACs. Il est difficile d’avoir des vitesses d’horloge de l’ordre de plusieurs centaines de MHz (du GHz) avec un bruit de phase ne détériorant pas l’EVM. Il faut aussi garantir une homogénéité dans le plan des fréquences utilisées (on préféra des multiples de la porteuse par exemple). Le but étant de disposer de plusieurs horloges différentes dans le circuit à partir d’une seule fréquence de référence.
• Puissance maximum obtenue en sortie : Ce paramètre peut être lié également aux critères du standard, puisque chaque standard défini une puissance maximale à ne pas dépasser à l’émission. En LTE, la puissance maximum à respecter est de 25dBm à titre d’exemple. Ce critère est également lié à l’implémentation de l’étage d’amplification dans ou hors de l’architecture. Quelle puissance l’architecture est elle capable de générer à sa sortie ? Quel sera alors l’étage d’amplification qui devra être associé ? Ce critère est souvent lié à la technologie utilisée et donc à la façon d’intégrer l’amplificateur dans l’architecture. Dans le cadre des architectures « tout numérique » on aura une intégration maximale du système si même l’étage d’amplification est conçu en technologie CMOS. Les performances de cette technologie ne sont pas orientées vers la génération de signaux de puissance pourtant nous verrons des exemples de réalisation et d’intégration d’amplificateurs en CMOS fournissant des puissances de l’ordre de 26dBm.
• Consommation : La consommation peut être rédhibitoire lors de la conception d’un circuit. Certains éléments de l’architecture, pour fonctionner, doivent avoir une tension de polarisation et drainent un courant qui va directement impacter la consommation du circuit. Dans l’hypothèse où l’étage d’amplification est compris dans la conception de l’architecture, il faut également pendre en compte le rendement de l’amplificateur, fonction de la classe d’amplification, car la part de puissance consommée par cet élément est non-négligeable dans le bilan global. Il y a souvent un compromis multi-critères lié à la puissance de sortie, la linéarité et la consommation du PA.
• Dimension du circuit : Les dimensions du circuit dépendent de deux facteurs. Le premier est la taille de gravure utilisée (130nm, 90nm, 65nm) en technologie CMOS. Le second est le nombre d’éléments actifs ou passifs que contient l’architecture. Si l’on prend l’exemple d’un étage de filtrage, il se peut que l’intégration des inductances pose problème. De même une architecture qui utiliserait trop d’éléments malgré une faible taille de gravure, verrait son avantage réduit, en raison de la place occupée et du faible coefficient de qualité.
• Nombre d’éléments externes à rapporter : Ce critère permet de voir si l’intégration n’est pas obtenue au détriment de l’ajout d’éléments extérieurs tels que des amplificateurs, ou des bancs de filtre. Par exemple si un système a un étage de filtrage peu reconfigurable, alors il faudra plusieurs filtres à des fréquences différentes. Suivant l’architecture utilisée, on peut être amené à utiliser différentes topologies d’étage d’amplification.
• Mise en forme du bruit et contraintes sur le filtrage : La limitation des émissions de bruit parasite hors bande afin de respecter les caractéristiques imposées par le standard, conduit à utiliser un ou plusieurs étages de filtrage. La contrainte imposée sur le ou les étages de filtrage dépend essentiellement du niveau de bruit mais également de la façon dont il est mis en forme par l’architecture (bruit proche et bruit lointain). Les DACs entrainent des remontées spectrales du fait du bruit de quantification. On peut donner l’exemple du modulateur Sigma Delta qui suivant la façon dont il est conçu, rejette plus ou moins loin ce bruit de quantification loin de la bande utile (noise shaping) [Stew, 1998]. Les caractéristiques du filtrage, essentiellement la sélectivité, s’en trouvent alors fortement modifiées. Les considérations des différentes technologies de filtrage possibles sont alors liées à cette mise en forme du bruit par l’architecture d’émetteur (rejection, pertes, compromis sensibilité/sélectivité). Le besoin de reconfigurabilité, lié au contexte de la multi-radio, vient alors complexifier le problème et définir un verrou technologique.
• Méthode de calibration : Il est important de connaitre la méthode de calibration de l’architecture. En fonction de la fréquence, de la puissance, voire même de la température, l’architecture a besoin d’être calibrée. D’un point de vue industriel il vaut mieux éviter d’avoir à faire une calibration en usine à la fois coûteuse et systématique, ne permettant pas d’adapter la calibration à chaque circuit. Cependant une autocalibration du système entraine l’ajout d’éléments supplémentaires dans l’architecture tels que des comparateurs ou des boucles de contre réaction apportant une complexité supplémentaire. Il y a un compromis à faire entre performances, coût et intégration.
Filtrage RF
Dans toutes architectures d’émission, le filtrage RF est un bloc essentiel si l’on veut garantir les contraintes spectrales imposées par chaque standard. Il a été vu dans les parties précédentes que chaque sous bloc génère des émissions parasites sous forme de bruit de phase ou de remontées spectrales proches. Pour respecter les contraintes d’ACPR et d’ACLR nous utilisons des filtres passe bande, centré sur la fréquence porteuse et dont les paramètres dépendent du standard. Les deux principaux paramètres sont la largeur de bande du filtre qui doit tenir celle du standard (tend vers 40MHz en LTE). Si l’on considère que l’on veut les mêmes pertes d’insertion sur toute la bande il faut alors garantir une bande à 3dB d’au moins le double de la bande passante maximale du standard soit 80MHz en LTE. De plus selon la fonction de transfert du filtre, il peut apparaitre des ondulations dans la bande. Aussi on privilégiera des fonctions du type Butterworth ou Cauer. Le deuxième paramètre important est la réjection et la symétrie du filtre. Dans la suite de l’étude nous définirons la sélectivité nécessaire pour les différentes bandes cellulaires. Les pertes d’insertion dans la bande doivent être les plus faibles possibles dans le but de relâcher le gain nécessaire au niveau de l’amplificateur (dimensionnement en puissance). Ces pertes d’insertion dépendront du type de filtre utilisé. Un filtre SAW aura des pertes d’insertion entre 1 et 3dB alors qu’un filtre LC aura des pertes d’insertion dépendant principalement du facteur de qualité des inductances utilisées. Cependant avec un filtrage LC il faut faire attention à la sensibilité des composants lorsque l’ordre est trop élevé. Il y a un compromis entre ordre (sélectivité) et sensibilité du filtre aux défauts de procédé. Pour une plus grande sélectivité, une bonne reconfigurabilité, et une bonne intégration, les filtres actifs ou les filtres numériques peuvent être utilisés, mais ils ont souvent exposés aux limitations du taux d’échantillonnage. De plus ces filtres, consomment de la puissance supplémentaire et ajoutent du bruit ce qui en émission n’est pas limitant mais peut le devenir en réception. Enfin le temps de retard de groupe (TPG) du filtre doit être constant afin de garantir un déphasage linéaire et limiter les distorsions du signal dues au filtre. Ce sera contraignant pour les signaux de type large bande. De plus si l’on se place dans un contexte multistandards et multi bandes, il faut que le filtre soit reconfigurable en fréquence en largeur de bande et en sélectivité tout en conservant ses caractéristiques optimales de pertes d’insertion. A l’heure actuelle les fabricants de terminaux mobiles parallélisent un grand nombre de filtre SAW, chacun attribué au filtrage d’une bande spécifique. C’est donc un coût importants, tant sur le plan financier que sur le plan de la taille du terminal. Il y a alors un enjeu très important et une limitation technologique liée à cette opération de filtrage dans les architectures multistandards.
|
Table des matières
Introduction
Chapitre I. Spécifications des émetteurs cellulaires dans le contexte de la radio reconfigurable
I.1. Concept de la radio cognitive
I.2. Intérêt de la multi-radio
I.3. Principaux standards de communication visés
I.3.1. Critères génériques de qualification des standards
I.3.2. GSM, EDGE et e-EDGE
I.3.3. UTRA FDD : W-CDMA, HSUPA et HSDPA
I.3.4. LTE FDD et TDD
I.4. Coexistences à prendre en compte dans la conception
I.5. Conclusion
Chapitre II. Architectures d’émission pour les applications multi-radio
II.1. Critères d’évaluation d’une architecture d’émission
II.1.1. Critères liés au standard
II.1.2. Critères liés à l’implémentation
II.2. Blocs dimensionnant une architecture d’émission
II.2.1. Conversion Numérique-Analogique
II.2.2. Modulateur IQ et transposition
II.2.3. Synthèse de fréquence
II.2.4. Filtrage RF
II.2.5. Amplification
II.3. Etude des architectures d’émission
II.3.1. Architectures d’émetteurs classiques
II.3.2. Architectures à techniques de linéarisation
II.4. Conclusion
Chapitre III. Dimensionnement d’émetteurs « tout numérique » pour des applications cellulaires
III.1. Des architectures analogiques aux architectures « tout numérique »
III.1.1. Evolution des blocs de mélange et de synthèse
III.1.2. Intégration de la transposition et de la pré-amplification
III.2. Contraintes liées à l’utilisation d’architectures « tout numérique »
III.2.1. Identification des contraintes
III.2.2. Identification des besoins en filtrage TX et des solutions possibles
III.2.3. Solution proposée et dimensionnement de l’architecture
Chapitre IV. Conception et réalisation d’un filtre RF passe bande reconfigurable à inductances actives en technologie CMOS 65nm
IV.1. Définition de la topologie du filtre
IV.1.1. Conception du filtre passe bande RF non reconfigurable à 1.95GHz
IV.1.2. Simplification de la structure
IV.1.3. Définition d’une loi de reconfigurabilité du filtre
IV.2. Conception d’une inductance active en technologie CMOS avancée
IV.2.1. Principe de fonctionnement d’une inductance active
IV.2.2. Choix de la topologie d’inductance active
IV.2.3. Conception et simulation de deux inductances actives
IV.2.4. Amélioration de la linéarité
Chapitre V. Implémentation et caractérisation du filtre à inductances actives en technologie CMOS 65nm
V.1. Implémentation du filtre à inductances actives
V.1.1. Plateforme technologique CMOS 65nm
V.1.2. Layout des inductances actives
V.1.3. Layout du filtre passe bande à inductances actives
V.2. Caractérisation des inductances actives sous pointes
V.2.1. Méthode de mesure
V.2.2. Performances mesurées de l’inductance active
V.2.3. Comportement en reconfigurabilité
V.3. Caractérisation du filtre passe bande
V.3.1. Mesure en socket de test
V.3.2. Extraction des phénomènes parasites
V.4. Comparaison à l’état de l’art et conclusion
Conclusion et perspectives
Bibliographie
Annexe 1
Annexe 2
Annexe 3
Télécharger le rapport complet