Éléments liminaires d’une théorie du hasard

Considérant la question de la prééminence relative des différentes formes de savoir scientifique, Auguste Comte [1848] en propose une structure épistémologique hiérarchisée bâtie sur des ontologies en cascades, structure selon laquelle à partir de la physique peut se déployer la chimie, elle-même nécessaire à la juste appréhension des faits et objets de la biologie, pour sa part substrat des sciences humaines. Bien qu’elle soit teintée de physicalisme, la proposition comtienne se garde toutefois de verser dans un réductionnisme par trop simpliste ; elle ne postule pas la réductibilité des événements survenant au sein des systèmes humains à des faits dont les sciences fondamentales de la nature seraient également à même de rendre compte, mais affirme surtout leur relation de cohérence. À ce schéma linéaire des savoirs, Bailly [1991] substitue un « anneau des disciplines » que l’on peut envisager – selon des parcours dissymétriques en nature – dans les deux sens : ainsi depuis la philosophie jusqu’aux sciences sociales et humaines en passant successivement par les mathématiques, la physique, la chimie et la biologie a-t-on affaire à une intégration (réductionnisme « formel »). Dans l’autre sens, il est question d’une différenciation (réductionnisme « analytique ») marquée par « l’affaiblissement de la richesse ontologique » des disciplines lors de chaque « transition ». Loin de la conviction unitariste du Cercle de Vienne ou de la vision « déflationniste » de Popper qui ne perçoit dans la ségrégation disciplinaire qu’un artifice académique, les deux approches susdites plaident à leur manière pour une imbrication pragmatique des savoirs, tout en reconnaissant leurs caractéristiques épistémologiques propres. Elles se distinguent non seulement de tout monisme ontologique établissant classiquement la réductibilité de toute chose à son substrat physique, mais aussi de tout monisme méthodologique qui prônerait au premier chef l’approche quantitative formalisée des sciences physiques comme matrice théorique générale.

HASARD ET MORPHOLOGIE DU RISQUE

Suam habet fortuna rationem
— Pétrone.

Au commencement était le chaos. Puis vint l’Esprit qui mit tout en ordre.
— Anaxagore.

Propos synthétique : Où, après avoir établi en synthèse les fondements historiques de l’appréhension du hasard en philosophie, nous présentons la différence structurante en économie entre risque et incertain. Enfin, nous qualifions le hasard à l’œuvre dans le cadre des processus de marchés ainsi que les hypothèses permettant à la théorie financière de le circonscrire. Au travers de ces dernières nous envisagerons les premières limites épistémiques de cette modélisation orthodoxe de l’aléatoire.

Éléments liminaires d’une théorie du hasard

La conception épistémologique contemporaine du hasard trouve sa source au tournant hellénistique de la philosophie antique. L’argument « dominateur » exposé par Diodore Cronos questionne la notion de futurs contingents en affirmant l’incompatibilité conjointe des trois prémisses suivantes : (A) « Le passé est irrévocable » (B) « Du possible à l’impossible la conséquence n’est pas bonne, ou : l’impossible ne suit pas logiquement du possible » (C) « Il y a des possibles qui ne se réalisent jamais » [Bouveresse, 2013], et en rejetant la dernière proposition (C) pour ne conserver que les deux premières (A et B). Comme le précise Vuillemin [1984], Diodore tolère que l’on puisse envisager le « prédicat de contingence », c’est-à-dire « la conjonction logique de ce qui est ou sera et de ce qui n’est pas ou ne sera pas. Cette définition a pour effet qu’est contingent ce qui n’est pas et sera ou ce qui est et ne sera pas ou ce qui sera et ne sera pas ». En d’autres termes, à partir d’un tel raisonnement, on aura déduit le fait qu’il puisse exister des choses ou des faits du monde à la fois possibles et non-nécessaires, et de ce fait on introduira une première conception logique du hasard comme survenue d’événements qui ne sauraient nécessairement advenir mais dont l’existence reste néanmoins envisageable. Concevant également la possibilité du hasard – dont les faits rares et accidentels de la nature seraient des manifestations phénoménales tangibles – la vision finaliste aristotélicienne lui dénie pour sa part toute valeur ontologique dans la production du réel [Aristote, 1966]. En ce sens, le hasard d’Aristote (αὐτόματον) n’est que contingence pure et ne participe pas de l’harmonie d’un monde naturel fait de régularités ; il s’y juxtapose mais ne le constitue pas. Épicure et l’école atomiste considèrent quant à eux le hasard comme une réalité « objective, relevant de la nature même des événements  » ; bien que lui-même acausal, le hasard est perçu comme une contingence à l’origine de l’ébranlement des choses du monde, de la survenue des événements [Lucrèce, 1899] :

Les atomes descendent en ligne droite dans le vide, entraînés par leur pesanteur. Mais il leur arrive, on ne saurait dire où ni quand, de s’écarter un peu de la verticale, si peu qu’à peine on peut parler de déclinaison. Sans cet écart ils ne cesseraient de tomber à travers le vide immense, comme des gouttes de pluie ; il n’y aurait point lieu à rencontres, à chocs, et jamais la nature n’aurait rien pu créer. […] C’est pourquoi, je le répète, il faut que les atomes s’écartent un peu de la verticale, mais à peine et le moins possible.

Le terme de « hasard » dérive de l’étymologie « al-zahr », en référence au jeu de dés pratiqué par les Arabes, que découvrent les Croisés au XIIe siècle. À la Renaissance, le discours sur le hasard quitte le champ exclusif de la métaphysique pour pénétrer celui de la science. C’est au travers de l’analyse des régularités fréquentielles relevées dans le cadre des jeux de chance que Luca Pacioli [1494] et d’autres auteurs italiens de traités mathématiques posent en des termes nouveaux l’étude du concept de hasard, le sujet trouvant un traitement proprement rigoureux dans la résolution par Blaise Pascal, en 1654, du « problème des partis » soumis par le Chevalier de Méré. Le développement du calcul des probabilités a ainsi ouvert la voie à l’inspection méthodique d’une forme d’inconnaissable, renforçant ipso facto la conception d’un univers ordonné dont il s’agirait de révéler le substrat de réalité et dedétermination par l’exercice de laRaison. C’est ce qui conduit Pascal, dans son Adresse à l’Académie, à qualifier les probabilités de « géométrie du hasard ».

En affirmant qu’« il n’est rien donné de contingent dans la nature » Spinoza [1677a] récuse la vision scholastique prévalant alors : l’ordre du monde, de nature divine, ne saurait souffrir nulle incertitude quant à sa détermination. En conséquence, ce qui est perçu comme hasard ne pourrait trouver son origine ailleurs que dans l’incapacité de l’être humain à déceler les causes véritables à l’origine des événements. C’est cette conception d’un hasard de nature épistémique que l’on retrouve également déclinée chez Bossuet et Leibniz ; certaines « vérités contingentes » sont ainsi qualifiées de « certaines », sans que la logique de leur causalité ne soit accessible à l’entendement humain, par essence limité. En ce sens, elles apparaissent comme nécessairement aléatoires à quiconque voudrait les observer et les comprendre.

Dans son Essai, Antoine-Augustin Cournot [1851] développe cette vision et fait écho aux « monstres » aristotéliciens en considérant que « les événements amenés par la combinaison ou la rencontre d’autres événements qui appartiennent à des séries indépendantes les unes des autres, sont ce qu’on nomme des événements fortuits, ou des résultats du hasard » [Cournot, 1851]. Cette appréhension d’un hasard d’ordre épistémique traverse toute l’époque moderne jusqu’à sa remise en cause radicale par la révolution conceptuelle qu’a constitué la mécanique quantique au début du XXe siècle et ce, de façon presque concomitante à la définition de l’axiomatique probabiliste de Kolmogorov , dont le formalisme prévaut encore aujourd’hui. Au tournant du XXe siècle, les travaux de Boltzmann et Gibbs proposent d’étudier l’aléatoire microscopique à l’œuvre au sein des systèmes thermodynamiques par le biais de la mesure statistique de leur dispersion particulaire [Boltzmann, 1905], levant alors un peu plus le voile sur ce qui échappait jadis au champ du savoir. La mécanique statistique naissante a alors eu pour effet de renforcer la conviction profonde héritée du siècle des Lumières d’un univers fait de lois dont il s’agit de comprendre la nature et les intrications, et considérant le hasard comme un résidu épistémique à conquérir. Pour Le Chatelier [1924], « tous les phénomènes sont engrenés suivant des lois inexorables […] la croyance à la nécessité des lois [revenant à celle de] l’inexistence du hasard. » .

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
1. HASARD ET MORPHOLOGIE DU RISQUE
1.1. Éléments liminaires d’une théorie du hasard
1.2. Risque et incertitude au sens knightien
1.3. Hasard « neutre » des séries arithmétiques
1.4. Dompter le hasard : hypothèses de construction en théorie des marchés
1.4.1. La modélisation : premiers enjeux et objets
1.4.2. Mathématisation en sciences économiques, quelques grands jalons vers la modélisation financière
1.4.3. Lognormalité des rendements
1.4.4. Régime stochastique brownien
2. DÉTERMINISME ET PRÉDICTIBILITÉ
2.1. Paradigme mécaniciste et lois de la nature
2.2. Enjeux généraux de la causalité
2.2.1. Hasard et causalité
2.2.2. Causalité différentielle et enablement
2.3. Déterminisme au sein des systèmes classiques
2.3.1. Déterminisme intégral et démon laplacien
2.3.2. De la position pragmatique du déterminisme local
2.3.3. Déterminisme stochastique
2.3.4. Chaos et hasard sauvage : limitation du déterminisme local
2.4. Intrication de modèles au sein des systèmes complexes
2.4.1. Premiers principes d’organisation
2.4.2. Intégration des modèles théoriques
2.5. La prédictibilité mise en question hors du champ des sciences physiques
2.5.1. Chaos déterministe et limitations calculatoires à la prédiction
2.5.2. Conditions de prédictibilité au sein des systèmes anthropiques
2.5.3. Imprédictibilité des processus de marché envisagés comme émergences
3. INSCRIPTION TEMPORELLE ET HISTORICITÉ DES SCIENCES DU VIVANT
3.1. Les formes d’anhistoricité de l’économie et de la finance
3.1.1. Anhistoricité statique du modèle néo-classique walrasien
3.1.2. Pseudo-anhistoricité analytique à la Arrow-Debreu
3.1.3. Anhistoricisation active par la mise en marché
3.1.4. La réplication dynamique comme forme d’anhistoricisation par le contrôle du risque
3.2. Les performativités : déterminants de l’inscription historique des systèmes anthropiques
3.2.1. Connaissance du passé et appréhension de l’avenir
3.2.2. Anticipations et croyances
3.2.3. Auto-référentialités
3.2.4. Auto-normativité performative
3.2.5. Intentionnalité et apodicticité transcendantale des lois de marchés
3.3. Une théorie des jeux imparfaite
4. VERS UNE ONTOLOGIE DES CRISES
4.1. Bifurcations morphogénétiques au sein des biosphères et des éconosphères
4.2. Des crises envisagées comme brisures de symétries
4.3. Régime de percolation et criticité transitionnelle
4.4. Métastabilité et phénomènes de panique
4.5. Crises et événements rares
4.6. Modéliser les crises financières
4.6.1. Linéariser le réel (hypothèse d’homogénéité)
4.6.2. Coefficients stochastiques
4.6.3. Sauts et discontinuités multiscalaires
4.6.4. Changements de régime et renormalisation
4.6.5. Dépendance au sentier
CONCLUSION

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *