L’évolution de la théorie sur la crédibilité
La littérature qui aborde la question de crédibilité et ses problèmes a commencé à prendre de l’ampleur à partir des années 1980. Cette littérature essaie essentiellement de répondre à deux questions:
1. Pourquoi existe-t-il un problème de crédibilité? On veut comprendre la raison pour laquelle une politique optimale ex post diffère de la politique optimale ex ante.
2. Peut-on éviter les pertes de bien être consécutives aux effets du problème de crédibilité? Il existe un grand nombre de travaux qui ont pris, comme objectif premier, la théorisation de la crédibilité des politiques économiques. Le travail qui constitue la base dans ce domaine est l’article de Kydland et Prescott24. Ce sont ces deux auteurs qui ont mis en évidence pour la première fois le problème de l’incohérence temporelle et donc l’apparition du problème de la crédibilité. Barro et Gordon25 ont pris le relai en comparant trois26 types de politique et défini au final la plus appropriée pour éviter le problème de crédibilité. En rappel, Kydland et Prescott ont déjà proposé une solution contre ce problème de crédibilité: « la discrétion ». Ils ont conclu que la discrétion est une solution cohérente temporelle mais sous optimale socialement. Une solution originale proposée pour lutter contre le problème de l’incohérence temporelle est l’utilisation d’ « une règle de ciblage d’inflation » proposé par Svensson en 1995 que nous n’allons aborder que dans le chapitre 2.
La notion de l’incohérence temporelle et l’apparition du problème de la crédibilité La notion d’incohérence temporelle d’une politique donnée est la cause principale qui mène au problème de crédibilité. Cette notion a été formulée pour la première fois en 1977 par Kydland et Prescott. Elle décrit des décideurs de politiques confrontés à un très fort attrait de se dévier d’une politique qu’ils ont eux même déjà annoncée auparavant. Dans leur article, Kydland et Prescott avaient soutenu la thèse que la théorie du contrôle optimal ; considérée pendant longtemps comme le meilleur outil pour analyser des systèmes dynamiques ; n’est plus finalement l’outil approprié pour la planification dynamique de l’économie. L’utilisation d’une fonction d’objectif social fixée et bien définie comme outil supplémentaire à cette politique n’améliore guère la situation. Kydland et Prescott montrent que la majorité des décisions de politique se heurtent à un problème de l’incohérence temporelle. Barro et Gordon ont approfondie le problème de l’incohérence temporelle en insistant plus particulièrement sur le cas d’une politique monétaire. Ils ont pris comme point de départ et d’analyse la théorie du taux de chômage naturel pour développer ensuite une théorie positive de la politique monétaire et de l’inflation en utilisant le modèle de Lucas28 avec anticipation rationnelle et augmenté d’une courbe de Phillips. On peut dire que la littérature sur le problème de crédibilité est développée selon deux prémisses:
• Quand les agents économiques décident de prendre des décisions courantes, ils tiennent compte non seulement des mesures de politiques économiques présentes et passées, mais aussi de l’anticipation des politiques futures. Une règle de politique considérée optimale à un moment donnée devient inefficace à la période suivante si les agents privés changent ses anticipations de politique à venir. La politique resterait et serait optimal si et seulement si ces anticipations coïncident exactement avec la politique future. Par exemple, les modifications administratifs qui se traduisent par des changements dans la fonction de l’objectif social ont un effet immédiat sur les anticipations des agents et affectent leurs décisions courantes. Il s’agit dans un tel cas d’incohérence temporelle ou dynamique. Par contre, pour Kydland et Prescott, une politique cohérente temporellement maximise toujours la fonction objective pour chaque période t et que les décisions de politiques prises aussi bien dans le passé que dans le futur se font de la même façon.
• La politique macroéconomique est le résultat des interactions stratégiques entre le gouvernement et le secteur privé de l’économie. Cela signifie que la règle de décision optimale des faiseurs de politique ne dépend pas uniquement de ses propres volontés mais aussi de celles des autres agents économiques. Dans la pratique, quand un processus monétaire est mis en œuvre par le gouvernement, les agents économiques privés parviennent à identifier les caractéristiques et peuvent par la suite formuler leurs anticipations. La décision de politique est alors soumise à la contrainte que la politique réalisée doit être égale à politique futur anticipée par les agents privés afin d’éviter la tromperie. Une fois que les agents économiques privés constatent que la politique économique réalisée par le gouvernement ne ressemble pas avec la politique annoncée, le décideur de politique perd sa réputation et se heurter à un problème de crédibilité. Les décisions de politique sont alors les solutions d’un jeu où les joueurs sont tous des agents rationnels. Chaque joueur anticipe aujourd’hui la réaction future des autres joueurs. Les résultats sont de la théorie de jeu qui est un outil méthodologique indispensable dans l’analyse de la politique macroéconomique moderne. Ici, nous sommes face à une analyse à deux agents. En effet, Barro et Gordon proposent deux joueurs: le décideur public [l’autorité monétaire ou le décideur de politique], qui choisit la politique monétaire à mettre en place et les agents économiques privés, qui anticipent rationnellement les niveaux d’inflation futurs.
Rivalité entre règles et discrétion: signe d’un renouveau monétaire
Les avis des économistes divergent sur la façon de conduire une politique monétaire. D’un côté, il y en a ceux qui sont partisans d’une politique discrétionnaire36 et de l’autre ceux qui sont favorable à l’emploie des règles c’est à dire une obligation à suivre des stratégies préalablement définies. Selon la littérature, et plus particulièrement les travaux de Kydland et Prescott, Barro et Gordon : les règles permettent d’obtenir une politique monétaire plus crédible. En s’appuyant sur des résultats mathématiques, ces auteurs ont montré que si la Banque Centrale décide de faire une politique discrétionnaire, cela conduit à l’incohérence temporelle, qui provoque à la fin un biais inflationniste sans effet bénéfique sur l’activité économique ou sur la croissance. Par contre si la Banque centrale s’engage à suivre une règle pour maintenir l’inflation à son niveau préalablement annoncé, la politique monétaire sera cohérente temporellement puisque l’inflation et le revenu coïncide avec leurs cibles. Le biais inflationniste disparaît donc entièrement et la politique monétaire se voit être plus crédible. La recherche de cette crédibilité est donc la cause principale du renouveau monétaire qui s’est manifesté par le gain d’intérêt accordé à la règle active plutôt que la discrétion. La littérature moderne sur la régulation monétaire s’inspire des travaux pionnier de Kydland et Prescott et de Barro et Gordon et insiste sur la forme que doit prendre la règle de politique monétaire afin d’obtenir une politique monétaire plus performant mais surtout afin d’offrir un outil de description et de prescription réaliste de l’activisme monétaire des Banques Centrales. La stabilité de l’inflation et la promotion de l’activité sont deux objectifs de la Banque Centrale. La forme ou la construction des règles de politique monétaire permette de décrire leur arbitrage et fait naitre plusieurs littératures sur les fonctions de réactions des Banques Centrale
Détermination des variables inobservables
• L’output gap : L’output gap est défini comme étant la variation du logarithme de l’output observé de sa tendance potentielle. Elle mesure la performance économique et du développement financier. La prise en compte de cette variable nous permet de détecter les effets d’un choc interne et externe sur l’activité économique. Le PIB potentiel est décrit par la littérature comme étant la production macroéconomique réalisable sans une accélération de l’inflation ou en d’autre terme une accélération du prix au delà de son niveau courant. C’est la production qui résulterait d’une oscillation normale du potentiel d’offre de l’économie. La production potentielle désigne donc le niveau de PIB le plus élevé soutenable à long terme pour une économie donnée. Si le niveau de la production s’établit au-dessus de la production potentielle, l’économie touche ses limites en termes de facteurs de production [capital ou travail]. De ce fait, la rémunération d’un des facteurs va augmenter, entraînant une hausse de la demande [hausse des revenus] alors que l’offre est limitée. La demande étant supérieur à l’offre, les prix augmentent. Inversement, lorsque l’économie est en dessous de sa production potentielle, l’inflation a tendance à diminuer, les entreprises baissant leurs prix afin d’augmenter leur production, puisqu’elles ont des capacités de production inutilisées. Le problème c’est que cette variable n’est pas observable et qu’on va la déterminer dans cette étude par la méthode de filtrage de Hodrick et Prescot, avec . 14400 qui correspond à notre données mensuelles. Cette méthode aboutit à une bonne estimation de l’output potentiel, elle permet de minimiser les fluctuations autour de sa composante tendancielle. La construction de l’output potentiel se fait donc par la méthode HP Filter, et une fois que cette variable est déterminée, en utilisant la formule en haut on peut aboutir à la détermination de l’output gap
Evolution du taux directeur de la Banque Centrale Malgache
Nous allons considérer chaque niveau du taux directeur et la raison liée à ce niveau. Le septembre 1998 la Banque centrale a relevé son taux directeur de 9 à 10 pour cent afin d’alimenter l’offre sur le MID, il y a situation de surplus de demande. En avril 1999 il a été décidé de porter le taux directeur de la banque centrale à 12% contre 10% auparavant. C’est une mesure visant à prévenir tout excès de création monétaire des banques primaires en limitant leur excédent de liquidité. En octobre 2000 la Banque Centrale a diminué son taux directeur de 15% à 12%, son objectif principal a été d’atténuer l’entré de devise en réduisant le différentielle du taux d’intérêt avec l’étranger. En 2001 il y avait eu deux aménagements du taux directeur et ce sont tous en terme de réduction, se terminant à 9%.Ces réductions font suite à la stabilité financière conjuguée à l’abondance de liquidité. En 2003:révision du taux directeur de 9% à 7%, mesure visant à assouplir les conditions de crédit et à faciliter les levés de fond par le trésor public dans un but de relance et de stabilisation globale de l’économie. En 2004:le taux directeur a été révisé à la hausse, passant de 7% à 9.5% en avril, puis à 12% au mois de juin et à 16% au mois de septembre. La BCM s’est donc intervenue à plusieurs reprises afin de contenir l’inflation et réduire la volatilité sur le marché interbancaire de devise. En 2006:la banque centrale a assoupli les conditions monétaires en ramenant son taux directeur de 16% à 12 % au mois d’août. La raison c’est que la situation extérieure s’est nettement améliorée, conduisant à un léger renforcement de la valeur externe de la monnaie nationale.
Modèle Forward de base
Considérons le résultat émanant du modèle Forward de base, c’est à dire le modèle n’incluant que la différence d’inflation et de production. Le coefficient de lissage du taux d’intérêt A dans ce modèle est statistiquement significatif et très proche de l’unité A 0.95.Ce qui dénote une forte tendance des autorités monétaires à fixer le taux d’intérêt présent à partir de celui du mois passé (notre donnée a été prise mensuellement).Ce qui veut dire que le taux d’intérêt ne varie pas systématiquement d’un mois à l’autre. Le taux d’intérêt nominal neutre est égal à 7.33, c’est le taux directeur qui est jugé ni restrictif, ni expansionniste à partir de ce modèle. L’estimation des deux paramètres et donne respectivement les valeurs 0.26 et -1.3. Ce sont toutes aussi des valeurs statistiquement significatives. De ce fait, le signe du paramètre de réaction lié à l’output gap , est négatif et nous paraît, pas conforme au signe attendu comparativement au résultat obtenu dans les pays développés. Taylor avait assigné par exemple un paramètre positif égal à 0.5 devant , c’est ce qui représentait le comportement de la FED. Ce qui veut dire qu’en cas d’activité faible/forte, le taux directeur de la FED diminue/augmente. La réaction de la FED tend toujours à ramener le niveau de l’output observé à son niveau potentiel. Par contre, en ce qui concerne la BCM, une production faible/forte ne provoque pas automatiquement, en terme de réaction unediminution/augmentation du taux directeur. On observe une réaction totalement différente. En effet, une production faible/forte provoque en terme de réaction de la BCM, une augmentation/diminution du taux directeur. Néanmoins, on peut interpréter ces réactions : d’une part, une diminution du taux directeur a eu comme conséquence, une augmentation de la production observée et par la suite un output gap positif. Il n’y avait pas augmentation des coûts globaux des entreprises (taux directeur faible) et de ce fait elles n’ont pas répercuté ses coûts sur leur prix de vente. Un output gap positif dans le cas Malgache n’est donc pas forcement inflationniste et n’a pas besoin de la part de la BCM une augmentation du taux directeur. D’autre part, une augmentation du taux directeur a eu comme conséquence, une diminution de la production observée et par la suite un output gap négatif. Les taux d’intérêt élevés sont inflationnistes60 car ils augmentent les coûts globaux des entreprises qui répercutent la hausse sur leurs prix de vente. C’est pour cela qu’on observe dans le cas de la BCM une réaction qui tend à faire augmenter le taux directeur. De toute façon, on observe que la réaction de la BCM ne tend pas du tout à ramener le niveau de l’output observé à son niveau potentiel quand ceci est inférieur ou supérieur à ce dernier. La Banque Centrale Malgache ne pratique61 donc pas une politique de ciblage d’activité. Le paramètre estimé , c’est à dire le paramètre devant la différence entre l’inflation observée et sa cible, prend une valeur positive 0.26.La Banque Centrale Malgache avait donc tendance à augmenter son taux directeur quand il y a inflation. Le coefficient était aussi significatif, mais reste à savoir si à l’introduction de M2 dans la fonction de réaction de Type Taylor, l’inflation arriverait à excéder en terme de significativité celle de M2.C’est ce que nous allons voir dans la sous-sous-section suivant.
|
Table des matières
Remerciement
Résumé
Liste des graphes
Liste des tableaux
Liste des abréviations
Introduction
PARTIE 1 : L’avènement du ciblage d’inflation par rapport au ciblage monétaire
Chapitre 1 : Les arguments en faveur de la politique de ciblage d’inflation
1.1 : Sous optimalité de la politique de contrôle de la masse monétaire
1.2 : Instabilité de la relation entre la cible monétaire et l’inflation
1.2.1 : Rôle mineur des agrégats monétaires sur l’inflation
1.2.2 : Innovation financière et difficulté sur la définition de la masse monétaire
1.3 : Biais inflationniste de la politique discrétionnaire de ciblage d’inflation
1.3.1 : Crédibilité en matière de ciblage d’inflation
1.3.1.1: L’évolution de la théorie de la crédibilité
1 .3.1.2: La notion d’incohérence temporelle et l’apparition du problème de crédibilité
1.3.2 : La discrétion, politique proposée contre le problème de crédibilité
Chapitre 2 : Adoption d’une règle de ciblage d’inflation
2.1 : Le ciblage d’inflation, solution originale contre le problème de crédibilité
2.2 : Fondements théoriques des règles de politique monétaire
2.2.1 : Rivalité entre règles et discrétion : signe d’un renouveau monétaire
2.2.2 : La règle de Taylor
2.3 : Construction théorique de la fonction de réaction
2.3.1 : Prise en compte d’une dynamique d’ajustement : comportement Backward-looking
2.3.2 : Prise en compte des anticipations rationnelles : comportement Forward-looking
2.3.3 : Définition d’une règle monétaire pour la Banque Centrale Malgache
PARIE 2 : Fonction de réaction de la BCM : détermination de la politique de ciblage prioritaire
Chapitre 3 : Données et méthodologie
3.1 : Méthodologie d’étude
3.1.1 : Les données
3.1.1.1 Source des données
3.1.1.2 Détermination des variables inobservables
3.1.2 : Evolution des principales variables économiques
3.2 : Justification de l’estimation par la Méthode des Moments Généralisés
3.2.1 : Modèle à anticipation rationnelles : Biais des MCO
Chapitre 4 : Estimation de la fonction de réaction de la BCM
4.1 : Spécificité et difficultés liées à l’estimation
4.2 : Principe général de la MMG
4.3 : Résultats de l’estimation par MMG
4.3.1 Résultat du modèle FORWARD traditionnel de base avec inflation cible égale à 0.1%
4.3.2 Résultats du Modèle FORWARD contenant une variable supplémentaire M2
4.3.3 Résultats du modèle FORWARD contenant une variable supplémentaire le taux de change
4.4 : Analyses des résultats
4.4.1 : Modèle FORWARD de base
4.4.2 : Modèle FORWARD avec comme variable supplémentaire M2
4.4.3 : Modèle FORWARD avec comme variable supplémentaire : le taux de change
Conclusion
Annexes
Bibliographies
Télécharger le rapport complet