Télécharger le fichier pdf d’un mémoire de fin d’études
Les dimensions normatives de la décision
Nous allons ici retracer l’évolution de la décision au fil des siècles. Nous commencerons au 17ème siècle avec la conception de la décision selon le Chevalier de Méré qui s’opère lors d’un choix incertain puis nous aborderons toujours dans ce premier point la décision telle qu’elle était vue au début du 20ème siècle. La rationalité liée à la décision devait être parfaite car elle répondait alors à la question : « comment les décisions devraient être prises pour être les meilleures possibles ? » Nous aborderons par la suite, dans un second point, l’évolution et la synthèse des travaux sur les dimensions normatives de la décision. Nous en déduirons, suite à cette vision de la décision normative, un apport pour notre recherche.
La décision normative
La décision normative, qui s’intéresse à la question « comment les décisions devraient être prises pour être les meilleures possibles ? », a trait à la rationalité parfaite. Elle se retrouve dans différentes disciplines telles que la philosophie, les sciences sociales et l’économie, le droit ou encore les relations internationales. C’est donc un sujet interdisciplinaire. Ce type de décision normative est mobilisé lors d’un choix avec incertitude.
La conception de la décision normative remonte au 17ème siècle avec le Chevalier de Méré (1607-1684) ainsi que la matrice de décision Pascalienne (B. Pascal, 1670). Le Chevalier de Méré (Antoine Gombaud), philosophe et grand joueur, se passionna pour le calcul des probabilités. Il correspondit à l’époque avec Roberval, Fermat et Pascal. Il formalisa la règle suivante dans un univers incertain :
Il fit rouler 4 dés et paria sur l’apparition d’au moins un 6. La possibilité de perdre est alors de : (5/6)⁴ = 625/1296 = 48.225 %
La probabilité de gagner est donc de : 671/1296 = 51.775 %
À long terme la probabilité de gain l’emporte.
Le Chevalier de Méré travailla avec Pascal qui mit au point en 1654, grâce à une question du Chevalier de Méré, le triangle arithmétique (ou triangle de Pascal) qui permettait de calculer par addition les coefficients du binôme : () = = !=( −1)….( − +1) ! ( − )! ( − 1) … 1 = Nombre de combinaisons de q éléments prises dans un ensemble de p éléments.
Le Chevalier de Méré posa ainsi le problème de partage des mises. Fermat échangea également avec Pascal sur les probabilités, suite à l’étude de « problème des partis » du Chevalier de Méré. Cette mathématique du hasard lui permit d’élaborer des probabilités. Mais sa contribution majeure concerne la théorie des nombres (dite « théorie moderne des nombres ») et les équations diophantiennes.
Pascal développa également une méthode de résolution du « problème des partis » en 1654 qui donna naissance au calcul des probabilités et influença fortement les théories économiques et les sciences sociales. Il formalisa également « l’espérance de gain » à l’aide de sa matrice qui avait été définie auparavant par Huygens en 1655 (« De la logique du jeu de dés »). Sa matrice consistait en un partage équitable à condition que « les sommes perçues par chacun des joueurs soient proportionnelles à leurs chances de gagner » (Kast, 1993). Il introduisit ainsi la notion de « valeur de l’espérance » d’une situation d’incertitude.
Tous ces différents calculs seront à la base des probabilités utilisées le siècle suivant pour les problèmes de décision, notamment dans les travaux de Montmort (Essai d’analyse sur les jeux de hasard (1708)), de Moivre (la doctrine des chances (1730)), de Jacques Bernouilli (l’Art de la conjoncture (1713) avec la première loi des grands nombres), ou encore de Daniel Bernouilli (exposé d’une théorie nouvelle de l’évaluation du risque, 1738) qui fut le premier à proposer le critère de « l’espérance de l’utilité du gain » (Kast, 1993).
Bernouilli (1700-1782) fut d’ailleurs le premier à créer une « théorie de la décision ». Il publia en 1738 un essai de « Théorie sur la mesure du risque » dans lequel il énonça le paradoxe de Saint Pétersbourg considéré aujourd’hui par des économistes et des financiers comme fondateur des bases de la théorie économique et financière, de l’aversion au risque, de la prime de risque et d’utilité, bien que ne traitant pas directement de ces questions.
À la suite de ces travaux, différents chercheurs du début du 19ème siècle firent avancer considérablement l’analyse de « problème de la décision ». D’un point de vue mathématique, la décision devait être considérée comme un point uniquement rationnel. Pour ce faire Poisson (1837) développa la théorie des probabilités avec la loi des grands nombres, puis Laplace (1812) énonça la théorie analytique des probabilités, et Gauss (1821) développa sa théorie de la combinaison d’erreurs de faibles amplitudes. Laplace-Gauss découvrirent également la loi normale.
Au début du 20ème siècle, de nombreux auteurs s’attachèrent à décrire la décision et à expliquer comment les décisions devraient être prises. Ainsi, du point de vue des sciences économiques, l’attention des chercheurs se porta sur la prise de décisions par des agents économiques simples, tel que le consommateur, et plus complexes tels que l’entrepreneur et les dépenses publiques (Théorie décision en économie = analyse de choix de dépenses publiques, des consommateurs et de l’entrepreneur. Arrow et Hurwicz, 1977). La décision d’un point de vue économique a également été étudiée par Taylor (rationalité productive) dans les années 1911 (« the Principles of Scientific management »), Fayol (rationalité administrative qui se fonde sur une approche en termes de processus : planification, organisation, direction et contrôle) et Weber (rationalité structurelle). Ces trois auteurs constituent, avec un quatrième auteur Ford, l’école classique du choix rationnel dans les années 1910 basée sur trois phases :
Une phase d’analyse ;
Une phase de décision ;
Une phase de mise en œuvre.
Le décideur, dans ce modèle classique du choix rationnel, a une capacité illimitée de traitement de l’information.
De nombreux autres auteurs en sciences économiques contribuèrent à faire évoluer le concept de prise de décision :
– Von Neumann et Morgenstern (1944) publièrent « Theory of Games and Economic Behavior », ouvrage fondateur de la théorie des jeux. Cet ouvrage a également formalisé la théorie de l’utilité espérée. La théorie des jeux s’intéresse aux interactions des choix d’individus qui sont conscients de l’existence de ces interactions. Le caractère rationnel du joueur est étudié. Ces deux auteurs formalisèrent également la théorie de l’utilité espérée qui est une théorie de la décision dans un environnement risqué. Les choix de la décision seront ainsi risqués dans un environnement incertain. Les auteurs appliquent cette théorie de l’utilité espérée pour prédire le comportement des joueurs dans les jeux non coopératifs c’est-à-dire des jeux où les joueurs ne peuvent pas passer d’accords contraignants entre eux. Les joueurs vont donc être seuls et raisonner en termes de meilleure stratégie individuelle.
– Luce et Raiffa (1957) apparaissent également comme les fondateurs de la théorie de la décision. Ils mettent en avant le problème de la décision individuelle dans un univers incertain. Ils vont utiliser la théorie des jeux et sont des théoriciens reconnus de cette dernière (Péreau, 2006). Dans leur livre « Games and Decisions » l’état de l’art sur la décision y est présenté. Luce et Raiffa ont ainsi présenté la théorie des jeux sous une forme moderne qui était toute nouvelle puisqu’elle a été fondée lors de la seconde guerre mondiale pour la prise de décision en situation de conflit. Cette théorie des jeux se base sur les travaux de Von Neumann et Morgenstern qui ont développé la théorie de la représentation du comportement individuel (déjà proposée par D. Bernouilli au 18ème siècle).
– L’école des néo-classiques, courant économiste des années 1950, est née de la « révolution marginaliste » dans les années 1870. Elle consiste à étudier la formation des prix, de la production et de la distribution des revenus à travers le mécanisme de l’offre et de la demande sur le marché. Elle se base sur l’hypothèse de maximisation de l’utilité. Elle a été surtout développée par Marshall, Walras, Menger et Stanley Jevons mais également par Smith et Ricardo.
L’école néo-classique est également fondée sur quatre postulats qui intègrent la décision normative:
Premier postulat : les phénomènes économiques peuvent et doivent être étudiés à l’aide des mêmes méthodes que les mathématiques ou la science physique ;
Second postulat : les agents sont rationnels, ils cherchent à maximiser leurs besoins. Autrement dit : les agents sont capables de résoudre un programme individuel et de s’y conformer ;
Troisième postulat : les agents cherchent à maximiser l’utilité des biens consommés tandis que les entreprises cherchent à maximiser leur profit ;
Quatrième postulat : les agents agissent chacun indépendamment, à partir d’une information complète et pertinente.
L’école autrichienne récuse ces postulats car elle utilise une notion de rationalité proche de la rationalité limitée. La théorie de l’Agence peut également être incorporée dans l’école néo-classique si l’hypothèse de la rationalité parfaite est amoindrie.
À partir de ce courant néo-classique, certains auteurs réfutèrent l’idée selon laquelle les humains agissent de façon rationnelle. Par la suite, ce courant évolua vers une conception plus comportementale de l’économie prenant ses distances avec la représentation de l’homo oeconomicus.
Parmi ces auteurs, nous pouvons citer Allais (1953), Davidson (1957) et Berthoz (2003).
Allais a démontré les contradictions de la théorie de l’utilité espérée (1953) développée par Von Neumann et Morgenstern. Nous parlons ainsi du paradoxe d’Allais qui est un paradoxe utilisé en théorie de la décision. Allais met ainsi en cause, dans la théorie de l’utilité espérée, l’axiome d’indépendance forte et de non-linéarité des préférences, élaboré par Savage. Il ne remet pas en cause la théorie de l’utilité espérée dans son ensemble, mais il démontre juste que lorsque le risque est extrême, le joueur va se focaliser plus sur la prime de risque (entendue comme un supplément de rendement exigé par un investisseur afin de compenser un niveau de risque supérieur à la moyenne. La demande est ainsi moins forte pour un actif risqué que pour un actif non risqué).
Davidson est également l’un des fondateurs de la théorie de la décision économique.
Cet auteur, psychologue expérimental au départ, écrit sous l’influence de Siegel en 1957 la première étude expérimentale de la décision « Decision making, an experimental approach ». Il travaille sur la théorie canonique de la décision qu’il remet ensuite en cause en construisant une alternative qui prendrait en compte des dimensions philosophiques (en particulier le rôle du langage, de l’interprétation). Il est influencé par de nombreux auteurs dont Ramsey (1927).
Berthoz (2003) participe également à la construction de la théorie de la décision et cite en 2003 Selten (prix Nobel en 1994), économiste se représentant le processus de décision : « le principal courant théorique moderne en économie se fonde largement sur une image irréaliste de la prise de décision par l’homme. Les agents économiques sont décrits comme des maximiseurs bayésiens de l’utilité subjective pleinement rationnels (les probabilités bayésiennes sont des procédures de décision qui tiennent compte de l’apprentissage par l’expérience). Cette conception de l’économie n’est pas étayée sur des preuves empiriques mais plutôt sur l’axiomatisation de l’utilité et de la probabilité subjective. » (Berthoz, 2003 : 11)
Dans le domaine des mathématiques, et plus particulièrement des statistiques, la décision est définie aujourd’hui comme une aide à cette dernière. Elle est elle-même le fruit de décisions antérieures : choix et définition des variables, modèle d’analyse. Elle comporte une partie théorique, qui s’appuie sur les probabilités, et une partie appliquée. Ces deux parties peuvent aider à la décision.
De grands auteurs contribuèrent à la théorie de la décision en statistiques :
– Ramsey (1927), mathématicien et probabiliste, écrit le théorème de Ramsey et la théorie de Ramsey. Il travaille plus particulièrement en mathématique combinatoire (exemple : le principe des tiroirs). Il étudie également l’économie à travers les probabilités et la logique. Il contribue à la théorie de la décision car il est interdisciplinaire aussi bien en logique, en économie qu’en philosophie. Une de ses œuvres « Thruth and Probability » critique la théorie de probabilité de Keynes. De plus, le théorème de Ramsey étudie le problème de la décision de Hilbert et Ackerman (1927, Grundzüge der theoretischen Logik). Ce problème est lié aux principes de logique théorique qui constitue aujourd’hui la « logique de 1er ordre » ou encore appelée le « calcul des prédicats ». Le calcul des prédicats du premier ordre, ou calcul des relations, ou logique du premier ordre, ou tout simplement calcul des prédicats, est une formalisation du langage des mathématiques, proposée par Gottlob Frege, entre la fin du XIXe siècle et le début du XXe siècle. En logique du premier ordre, on peut raisonner sur des énoncés comme « Tout x est gentil » et « Il existe un x tel que pour tout y, x est ami avec y ».
Ramsey occupe dès lors une place atypique dans l’histoire de la théorie économique car il était avant tout un mathématicien s’intéressant à l’économie. Ses travaux sont considérés comme importants dans les modèles macroéconomiques d’inspiration néoclassique.
– De Finetti (1937), quant à lui, était un statisticien probabiliste et actuaire. Il créa en 1937 « la prévision : ses lois logiques, ses sources subjectives. » Il était connu comme mathématicien travaillant sur des probabilités subjectives. Il collabora avec Ramsey.
– Un autre auteur, tout aussi important, qui contribue également à la théorie de la décision dans le champ disciplinaire de la statistique est Savage. Savage (1951) publia « The Foundation of statistics » qui contribua fortement à la théorie de la décision car il proposa une théorie subjective et personnelle des probabilités et des statistiques qui forme un de ses socles de l’inférence bayésienne et a des applications dans la théorie des jeux. L’inférence bayésienne est une méthode d’inférence (c’est un mouvement de la pensée allant des principes à la conclusion) permettant de déduire la probabilité d’un évènement à partir de celles d’autres évènements déjà évalués. Elle s’appuie sur le théorème de Bayes (théorie des probabilités, la distribution a posteriori de la probabilité p d’une loi binomiale). Savage s’est appuyé sur les idées de Ramsey (1931), de De Finetti (1937) et de Von Neumann et Morgenstern (1944).
– Plus récemment Jeffrey (1965) publia « the Logic of Decision » qui apporta une grande contribution à la théorie de la décision. L’auteur résume ainsi son livre : « en un certain sens, l’explication bayésienne de la délibération fournit une logique de la décision ». La théorie de Jeffrey est une généralisation de celles de Savage et Ramsey. D’après Harnay (1988), Jeffrey avait en effet conçu une théorie de l’utilité espérée dont les objets étaient des propositions, c’est-à-dire un ensemble de phrases dotées de significations sur lesquelles portent les préférences des agents ainsi que leurs jugements de probabilité. En 1992 Jeffrey publia « Probability and the Art of Judgement », ouvrage qui regroupait 35 ans de ses travaux et qui est considéré comme un classique dans la littérature de recherche.
D’autres disciplines telles que les sciences de gestion s’intéressent à la décision : elle est dès lors un sujet interdisciplinaire. Elle va ainsi s’insérer dans une coproduction des savoirs entre différentes disciplines telles que l’économie et les sciences de gestion.
Elle va être étudiée par Mintzberg et ses co-auteurs en 1976 qui vont s’intéresser à un modèle général de l’analyse stratégique de cette dernière et la décomposer en plusieurs étapes :
Figure 2 : Modèle général de l’analyse stratégique de la décision
Ainsi les trois grandes étapes sont distinguées dans ce modèle général (Loubaresse, 2013) :
– L’identification du problème qui inclut la reconnaissance puis le diagnostic ;
– le développement des solutions qui passe par la schématisation du problème, la recherche et la lecture de solutions ;
– la sélection de la solution préférée qui implique un jugement, une analyse et une négociation d’évaluation avant l’autorisation de la décision.
Ce point de vue économique est une approche en termes de rationalité absolue où il n’y a qu’un seul décideur. La rationalité absolue peut être définie de la manière suivante d’après March et Simon en 1958 : « l’homo oeconomicus dispose d’une information complète sur la situation connait toutes les solutions envisageables, prend la meilleure décision en tenant compte des contraintes de son environnement ».
D’autres auteurs en sciences de gestion, et notamment en finance, développèrent la théorie de l’efficience informationnelle des marchés financiers. Cette théorie fut développée en 1970 par Fama et fut l’une des théories les plus controversée en économie et/ou en finance. Fama donne la définition suivante de sa théorie : « un marché dans lequel les prix « reflètent pleinement » et toujours l’information disponible est appelée « efficient » ».
Fama est critiqué assez rudement sur sa définition car elle est approximative du fait de ses guillemets dans « reflètent pleinement ». Elle peut s’apparenter à la définition suivante : l’hypothèse d’efficience de marché part du principe que lorsqu’un marché est suffisamment développé et que les informations sur ce dernier sont connues par tous les acteurs, ces derniers étant rationnels, ils réagissent presque instantanément et de façon correcte. Le marché a donc un comportement rationnel.
La décision est ici normative. Fama a par la suite développé trois formes d’efficience du marché, classées en fonction de la capacité des agents à se procurer les informations sur le marché :
La forme faible d’efficience ou « weak form » : avec une efficience de marché faible, la seule variable expliquant le cours actuel ou futur d’un actif est l’historique des cours de cette action.
La forme semi-forte d’efficience ou « semi-strong form » : cette forme d’efficience implique que toute l’information publique (fusion, annonce de dividendes, résultats annuels, etc.) est incorporée dans l’ensemble des informations. Nous pouvons ainsi valider l’hypothèse d’une semi-forte efficience quand le prix d’un actif fluctue instantanément à l’annonce d’une information publique.
La forme forte d’efficience ou « strong form » : dans un marché à forte efficience, en plus du fait que l’ensemble des informations des deux autres formes sont incorporées dans le prix actuel d’un actif (informations publiques et performances passées de l’actif) toutes les informations privées sont connues par l’ensemble des acteurs et donc également incorporées dans les prix des actifs. Le délit d’initié devient impossible. Il est également impossible de réaliser des bénéfices car il est illusoire de prévoir les cours futurs.
À la suite de cette classification en trois catégories, la définition d’efficience est remise en question car elle soulève des contradictions et des difficultés sur le marché.
Mignon (2008) écrit et conclue son article sur les « ambiguïtés de la théorie de l’efficience informationnelle des marchés financiers » en soulignant qu’il serait bon dans les recherches futures de garder à l’esprit les faiblesses de l’hypothèse d’efficience des marchés financiers et d’investiguer une approche behavioriste car les intervenants sur les marchés financiers sont humains et peuvent donc être défaillants.
La notion de rationalité parfaite tend ainsi aujourd’hui à disparaitre car c’est un courant qui n’a pas évolué depuis des dizaines d’années. Il ne prend pas en compte toutes les informations disponibles sur le marché, ni le fait que les décideurs peuvent être soumis et/ou influencés par des biais cognitifs ou des traits propres à leur personnalité. L’émotion n’existe pas dans la rationalité parfaite : or l’émotion est également inhérente à la décision (Damasio et al., 2000). C’est ainsi que la rationalité parfaite intégrée dans le courant de la décision normative va évoluer vers une rationalité moins parfaite à savoir « limitée ». La rationalité limitée va prendre en compte tous les éléments cités ci-dessus et va s’inscrire dans un courant descriptif : on parlera de décision descriptive que nous aborderons dans un second point dans ce chapitre.
D’autres auteurs en sciences de gestion se spécialisent dans la décision et s’intéresse plus particulièrement à la décision de financement : nous pouvons citer Modigliani et Miller (1958, 1963,1977) qui prennent comme hypothèse les marchés parfaits. Pour ces auteurs le choix de financement d’un actif économique d’une entreprise n’a pas d’influence sur la valeur de cet actif économique. Ils introduisent les effets de la fiscalité sur la valeur de l’entreprise. Suite à cette théorie de Modigliani et Miller, Kraus et Litzenberger (1973) ainsi que Myers (1984) rejettent l’hypothèse des marchés parfaits. Ils introduisent la théorie du compromis qui consiste à identifier les conditions sous lesquelles un endettement moindre est préférable. Les auteurs prennent en compte la fiscalité et les coûts de faillite. Myers (1984) introduit en plus les notions de coût de financement externe et d’asymétrie d’informations. Cette théorie a permis l’élaboration d’une théorie de l’endettement optimal (Ngongang, 2012).
Jensen et Meckling (1976) puis Jensen (1986) créent quant à eux la théorie des coûts d’agence : ils partent de la théorie du compromis, à savoir du principe d’une structure de financement optimale, et incorporent différents partenaires dans l’entreprise et autour d’elle : les dirigeants, les actionnaires et les créanciers. Il y aurait ainsi divergence d’intérêts entre ces différents partenaires puisque selon les flux de trésorerie disponible, le placement ne se ferait pas de la même manière pour les dirigeants, les actionnaires et les créanciers. Il faut ainsi, d’après la théorie du coût de l’agence, prendre des décisions afin que la structure de financement optimale soit déterminée en minimisant les coûts découlant de conflits entre les différentes parties engagées (Aboulmaaty, 2014).
Une autre théorie tout aussi importante pour la décision de financement est la théorie du financement hiérarchique (Pecking Order). Elle a été introduite par Donaldson (1961). Son objectif était de montrer que l’entreprise suit une hiérarchie des financements très précise (financement par ressources internes prioritaire au financement externe) dans un contexte d’asymétries d’informations entre les agents aussi bien extérieurs à l’entreprise qu’intérieurs à l’entreprise. Myers et Majluf (1984) étudient quant à eux les décisions d’investissements et de financements toujours dans un contexte d’asymétrie d’informations. Ils concluent à une préférence des entreprises pour le financement interne. Molay (2006) étudie suite à ce courant, la structure de financement des entreprises en France et conclue à une hiérarchie de financement au sein des entreprises françaises.
La décision de financement implique également la théorie du signal qui se fonde sur l’asymétrie des informations ou sur des informations mal partagées (Ross, 1977). L’information que l’on nomme « signal » doit être crédible. Dans cette théorie, il vaut mieux un signal, même erroné, qu’une absence d’information. Cette théorie en entreprise nous indique que les dirigeants ont une information plus grande que les investisseurs extérieurs. Ils vont ainsi donner aux investisseurs extérieurs des informations de qualité qui vont augmenter le cours de l’action de l’entreprise. L’endettement de l’entreprise va suivre et augmenter, ce qui amènera un fort endettement pour l’entreprise. De ce fait, cette entreprise développera pour le marché des opportunités d’investissement, un rendement élevé et une valeur élevée. Les flux de trésorerie futurs seront ainsi directement liés à un niveau d’endettement élevé.
Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.
|
Table des matières
Introduction de la première partie
Chapitre 1 : La décision
1. Les dimensions normatives de la décision
1.1 La décision normative
1.2 Synthèse des travaux sur les dimensions normatives de la décision
Conclusion de la section 1
2 Les dimensions descriptives de la décision
2.1 La décision descriptive vue sous le prisme de la rationalité limitée
2.2 La décision descriptive vue sous le prisme de la psychologie comportementale
Conclusion de la section 2
Conclusion du chapitre 1
Chapitre 2 : Les études de genre
1. Le genre et le travail
1.1. Féminisation du marché du travail
1.2. L’égalité professionnelle
1.3. Hiérarchie sexuée des métiers
1.4. Le plafond de verre
Conclusion de la section 1
2. Les stéréotypes de genre
2.1 Le sexe et le genre
2.2 Les stéréotypes de genre
2.2.1 Définitions
2.2.2 Études sur les stéréotypes de genre
2.3 La Gender Schema Theory
Conclusion de la section 2
3 La mesure du genre
3.1 Définition du BSRI (Bem Sex Role Inventory)
3.2 Construction du BSRI
3.2.1 La version longue du BSRI
3.2.2 La version courte du BSRI
3.3 Pourquoi incorporer cet outil dans notre recherche ?
Conclusion de la section 3
Conclusion du chapitre 2
Chapitre 3 : La décision en entreprise et le genre
1 L’influence du genre sur la décision en termes de performance
1.1. Performance et genre
1.2. Synthèse des travaux sur l’influence du genre sur la performance
Conclusion de la section 1
2 L’influence du genre sur la décision en termes de risque
2.1. Risque et genre
2.2. Synthèse des recherches sur l’influence du genre sur le risque
Conclusion de la section 2
Conclusion du chapitre 3
Conclusion de la première partie
2ème partie : Etude empirique
Introduction de la deuxième partie
Chapitre 4 : La méthodologie
1 La démarche expérimentale
1.1. Historique et principes des méthodes expérimentales
1.2. Méthodes expérimentales et sciences humaines et sociales
1.3. Les méthodes expérimentales liées à la mesure de la performance selon le sexe de l’individu
1.4. Les méthodes expérimentales liées au risque et au sexe de l’individu
1.4.1. Première méthode d’expérimentation liée au risque : le B.A.R.T. (Balloon Analogue Risk Task)
1.4.2. Seconde méthode d’expérimentation liée au risque : le questionnaire
1.4.3. Troisième méthode d’expérimentation liée au risque : la méthode de Eckel et Grossman (2002)
1.4.4. Quatrième méthode : la méthode M. P. L. de Holt et Laury (2002)
1.4.5. Cinquième méthode : la méthode de Gneezy et Potters (1997)
2. Mise en oeuvre de notre expérimentation
2.1. La mesure du genre
2.2. Expérimentation liée au protocole de Charness et Gneezy (2004) sur le modèle de Gneezy et Potters (1997)
2.2.1. Le modèle
2.2.2. Le design de recherche
2.2.3. L’échantillon
2.2.4. Le terrain
2.2.5. Les instructions pour l’expérimentation
2.3. Le protocole de Holt et Laury (2002)
2.4. La mesure des variables
2.5. Traitement des données sur le protocole et la mesure du genre
Conclusion du chapitre 4
Chapitre 5 : Analyse et présentation des résultats
1 Les résultats issus du questionnaire du Bem Sex Role Inventory (BSRI)
1.1 La fiabilité des échelles de mesure
1.2 Statistiques descriptives
1.2.1 Statistiques descriptives en fonction du sexe
1.2.2 Statistiques descriptives en fonction du genre
1.2.3 Conclusion sur les statistiques descriptives genre versus sexe
1.3 Tests d’hypothèses : comparaison de moyennes
1.3.1 Comparaisons de moyennes par sexe
1.3.2 Comparaison de moyennes par genre
1.3.3 Conclusion sur les tests d’hypothèses sexe versus genre
2 Les résultats issus du protocole de Charness et Gneezy (2004) provenant de celui de Gneezy et Potters (1997)
2.1 Statistiques descriptives
2.1.1 Statistiques descriptives liées au sexe de l’individu
2.1.2 Statistiques descriptives en fonction du genre
2.2 Tests d’hypothèses : comparaisons de moyennes
2.2.1 Comparaison de moyennes par rapport au sexe
2.2.2 Comparaison de moyennes par genre
2.3 Synthèse et comparaison des résultats
3 Les résultats issus du protocole de Holt et Laury (2002)
3.1 Statistiques descriptives
3.1.1 Statistiques descriptives selon le sexe
3.1.2 Statistiques descriptives par genre
3.2 Tests d’hypothèses : comparaison de moyennes
3.2.1 Comparaison de moyennes par sexe
3.2.2 Comparaison de moyennes par genre
3.3 Analyse du protocole au prisme du genre et du sexe
Conclusion du chapitre 5
Chapitre 6 : Analyse et discussions des résultats
1 Discussion des résultats issus du BSRI
1.1. Analyse du BSRI en fonction du sexe des individus
1.2. Analyse du BSRI en fonction du genre
1.3. Synthèse
2 Discussion des résultats issus des protocoles de Charness et Gneezy (2004) et Holt et Laury (2002)
2.1 Les résultats des protocoles en fonction du sexe des individus
2.2 Les résultats des protocoles en fonction du genre des individus
2.3 Synthèse
Conclusion du chapitre 6
Conclusion générale
Bibliographie
Annexes
Résumé
Résumé en anglais
Télécharger le rapport complet