Sur le marché financier, il existe de nombreuses anomalies que les théories économiques traditionnelles ne peuvent bien expliquer. Cependant, en tant que théorie économique émergente, le modèle basé agents (Agent-based computational economics, ACE) est capable de reproduire certaines des propriétés statistiques des rendements observés sur les marchés boursiers réels. Dans cette thèse, je reviendrai d’abord brièvement sur l’histoire du modèle basé agents et indiquerai les critiques de cette théorie. Ensuite, je présenterai les méthodes et les procédures générales de la modélisation du modèle basé agents. Je propose également dans cette recherche, un modèle très simple permettant de reproduire les deux principales « anomalies » que l’on observe sur les marchés financiers : d’un côté, une distribution des rendements dont les queues seraient trop épaisses, de l’autre, une volatilité irrégulière dans le temps du cours des actifs financiers. Je voudrais notamment montrer, en utilisant un modèle basé agents, qu’une formation mimétique des anticipations est en mesure de rendre compte de ces deux caractéristiques.
Les causes du scepticisme vis-à-vis du recours aux modèles basés agents sont discutées. Ces causes ne sont pas sans fondement : ces modèles sont bien souvent sur-paramétrés (dans leur ambition de décrire de manière réaliste les comportements), étant calibrés et mal validés. J’envisage de lever ce scepticisme en exposant un modèle simple, estimé à l’aide d’une méthode économétrique.
Je me propose de reproduire les évolutions de l’indice CAC 40 qui sont notamment caractérisées pas une distribution leptokurtique et par une volatilité par grappes. Pour ce faire, je m’appuie sur le modèle dit de percolation développé par Cont et Bouchaud (2000), mais en m’écartant sensiblement des développements ultérieurs proposés, par exemple, par Iori (2002) ou Fabretti (2013) qui cherchent, en complexifiant le modèle, à mieux reproduire les évolutions observées. Le modèle développé par Iori (2002) est seulement simulé, demeurant quelque peu en forme de « boîte noire ». En revanche, celui proposé par Fabretti (2013) est estimé par une méthode de moments, mais il semble sous-identifié en raison de son très grand nombre de paramètres.
Une revue de l’histoire du modèle basé agents
Jeudi 5 janvier 2017, Andrew Haldane est apparu sur la scène de l’actualité, ayant comparé l’économiste au prévisionniste. Bien évidemment, ce n’était pas une comparaison flatteuse pour l’économiste. Il a indiqué que le prévisionniste britannique, Michael Fish, avait déclaré le 15 octobre 1987, lors d’une prévision : «Earlier on today, apparently, a woman rang the BBC and said she heard there was a hurricane on the way… well, if you’re watching, don’t worry, there isn’t !». Quelques heures plus tard, une grande tempête frappait le sud-est de l’Angleterre et la France, tuant respectivement 19 et 15 personnes. La leçon de cet événement est que les économistes devraient poursuivre leurs efforts afin d’établir des prévisions. Il est clair que la tâche des météorologues est ardue, mais ils assurent bien leur travail grâce aux 50 millions de mesures météorologiques quotidiennes et à la simulation d’un ordinateur super puissant. Peut-être les prévisions économiques devraient-elles également suivre l’exemple de cette approche. Ainsi, peut-on utiliser des ordinateurs pour simuler l’économie réelle ? La réponse est affirmative. En 2008, la Reine Élisabeth II a interrogé un groupe d’économistes au sujet de la crise financière lors d’une visite à la London School of Economics : «Why did no one see it coming ?”» Pourquoi personne ne l’avait vu venir ? De nombreux éco-physiciens et Santa Fe Institute (SFI) disent que la réponse se trouve dans le modèle Agent-based computational Economics.
Le 30 octobre 2008, le français Jean-Philippe Bouchaud, cofondateur et président de la société Capital Fund Management (CFM), et professeur à l’école polytechnique de Paris, a publié un article « Economics need a scientific revolution » dans Nature (Bouchaud, 2008). Il a critiqué la méthodologie utilisée sur la statistique des mouvements boursiers et la modélisation des risques financiers, et notamment le modèle Black-Scholes. Un an plus tard, le 6 août 2009, Nature a publié un article intitulé « The economy needs agentbased modelling » écrit par Farmer et Foley (2009). Dans cet article, les auteurs ont écrit que face à la crise financière de 2007, les deux meilleurs modèles que le groupe économique du président des États-Unis Barack Obama et ses homologues internationaux avaient utilisés, le modèle statistique empirique (modèle d’économétrie) et le modèle d’équilibre général dynamique stochastique (DSGE), avaient échoué face aux changements spectaculaires et à l’environnement complexe. Mais, la simulation du modèle agents basé pouvait, selon eux, résoudre ces problèmes. En même temps, Buchanan (2009) a posé une question «Could agent-based computer models prevent another financial crisis ?» .
Étant donné que la célèbre revue Nature a mentionné le modèle basé agents à plusieurs reprises, d’autres questions ont surgi : Qu’est-ce que le modèle basé agents ? Pour quoi ce modèle économique est-il toujours mentionné dans la revue Physique ? Pourquoi ne trouve-t-on pas beaucoup d’articles sur le modèle basé agents dans d’autres grandes revues scientifiques ? Pourquoi les économistes évitent-ils de faire de la simulation en économie ?
Naissance du modèle basé agents
Dans les années soixante-dix du XX? siècle, les États-Unis sont entrés dans une période où la croissance économique était plus faible qu’auparavant et l’inflation très forte, ce qui est appelé la stagflation. Pour comprendre ce phénomène et le fonctionnement de l’économie, les économistes ont suivi deux voies de recherche complètement différentes. Une fraction était composée d’économétriciens, représentée par Christopher A. Sims, ayant obtenu le prix Nobel d’économie en 2012. Les partisans de cette fraction ont simulé un fonctionnement macroéconomique en créant de grandes équations simultanées avec des méthodes de métrologie et de grandes quantités de données. Dans la conception du modèle, un moins grand nombre de théories économiques et d’hypothèses était considéré comme meilleur. Ces chercheurs ont préféré laisser les données parler, dire la vérité. L’autre fraction était composée d’économistes qui suivaient la pensée de Robert Lucas, ayant reçu le prix Nobel d’économie en 1995. Pour ce dernier il est trop naïf de prévoir la fluence du changement d’une politique économique seulement à partir des données historiques et leurs relations. Dans un article publié en 1976, il a expliqué davantage pourquoi les suggestions de la politique basée sur le modèle économétrique à grande échelle proposées par les économistes n’étaient pas fiables. Les conclusions du modèle étaient soit insignifiantes, soit incapables de répondre aux économistes pour résoudre le problème, car les coefficients du modèle économétrique variaient à mesure des changements politiques, n’étant pas des coefficients structurels séparés. Telle était la critique de Lucas. À ses yeux, l’aspect dynamique manquait aux modèles économétriques.
Sims a suivi et développé la pensée de la première fraction. L’économiste néerlandais Jan Tinbergen, premier Prix Nobel d’économie en 1969, a tenté de construire un modèle macroéconomique afin de vérifier la théorie du cycle économique à travers des données et à l’aide de son modèle. L’économiste norvégien Trygve Magnus Haavelmo, Prix Nobel d’économie en 1989, est un des fondateurs de la théorie de la probabilité et de l’économétrie. Il a montré que toute théorie économique devait être exprimée sous forme de probabilités, parce qu’il n’existait pas de théorie économique absolue parfaite. Mais, dans la pratique, les économistes ont rencontré des difficultés concernant la puissance de calcul, dans la mesure où il n’y avait pas d’ordinateur assez performatif. Selon la théorie de Keynes, Il existe de nombreuses incertitudes qui causent le cycle économique, il faut donc ajouter nombre de variables dans le modèle. Cependant, pour simuler le fonctionnement de la macroéconomie réelle, un modèle plus grand, plus compliqué que celui de Haavelmo s’avérait nécessaire .
À mesure du développement de l’ordinateur individuel, la simulation en économie est devenu plus proche de la réalité. La rationalité limitée est un concept qui a été forgé par Herbert Alexander Simon, ayant reçu le Prix Nobel d’économie en 1978. Ses travaux portaient sur l’étude du comportement d’un individu face à un choix. Thomas John Sargent, ayant reçu le Prix Nobel d’économie en 2011, a étudié les conditions dans lesquelles les systèmes avec une rationalité limitée d’agents et d’apprenants convergeaient leurs adaptations vers des anticipations rationnelles. Ceci est considéré comme l’origine de la théorie basé agents. Par la suite, Leigh Tesfatsion et Lebaron ont proposé le concept de l’économie computationnelle à base d’agents. Leigh Tesfatsion a aussi créé un site d’économie computationnelle à base d’agents, regroupant les résultats des dernières études sur le modèle basé agents dans le monde entier.
|
Table des matières
Introduction générale
1 Une revue de l’histoire du modèle basé agents
1.1 Introduction
1.2 Naissance du modèle basé agents
1.3 Critiques des théories économiques traditionnelles
1.4 Essor des sciences des systèmes complexes
1.5 Recherche sur le processus d’apprentissage et évolution du comportement basé agents
1.5.1 Brève histoire du développement et de la recherche du modèle basé agents
1.5.2 Premières recherches sur le modèle basé agents en finance
1.6 Le modèle basé agents et la physique
2 Les méthodes et les procédures générales de la modélisation du modèle basé agents
2.1 Les technologies clés de la modélisation du modèle basé agents
2.1.1 Le modèle d’agent
2.1.2 Les interactions entre agents
2.2 L’analyse des résultats de l’émergence du modèle basé agents
2.2.1 Analyse des règles individuelles
2.2.2 Analyse statistique des séries temporelles
2.2.3 Analyse de l’animation graphique
2.2.4 Autres méthodes
2.3 Critiques du modèle basé agents
3 Anomalies sur les marchés financiers
3.1 Introduction
3.2 Queue épaisse
3.2.1 Les données
3.2.2 La distribution des rendements du CAC 40
3.3 Mémoire à long terme et volatilité clustering
3.3.1 Définition de la mémoire longue
3.3.2 Analyse de la mémoire longue du CAC
3.4 Autres anomalies sur le marché financier
3.4.1 Les effets sur la petite entreprise
3.4.2 Les effets de calendrier
3.5 La mesure de reproduction des anomalies
3.5.1 Le Moving Block Boostrap
3.5.2 La fonction objective f(θ) pour la simulation
4 Notre propre modèle basé agents et nos résultats
4.1 Notre modèle basé agents
4.1.1 Agents positionnés dans un réseau
4.1.2 Mécanisme de la prise de décision
4.1.3 Formation du cours boursier
4.1.4 Transactions pour chaque agent
4.1.5 Premiers résultats et problèmes rencontrés
4.2 Amélioration du modèle et des résultats : le mimétisme des anticipations permet-il de reproduire les anomalies observées sur les marchés financiers ?
4.3 Le modèle de percolation
4.3.1 Le modèle de Cont et Bouchaud (2000)
4.3.2 Deux développements récents des modèles basés agents en finance
4.4 Un modèle simple
4.5 Estimation du modèle et résultats
4.5.1 Quels moments retenir ?
4.5.2 Les résultats
4.6 Conclusion
Conclusion générale