Expérience aléatoire, simulation et modèles mathématiques 

Télécharger le fichier pdf d’un mémoire de fin d’études

La place de la simulation dans les programmes de probabilités et statistiques

Les programmes de Mathématiques de la classe de troisième datant de 2008 ont introduit pour la première fois la notion de probabilité au collège. Ils stipulent que l’introduction de la notion de probabilité se fait : à partir d’expérimentations qui permettent d’observer des fréquences des issues des situations familières. (MENCOL, 2009, p.34)
Une référence aux « pièces de monnaie, dés, roues de loterie, urnes » est présente dans ces programmes. L’usage de la notion de probabilité per-met de : « modéliser des situations simples de la vie courante, les si-tuations étudiées concernant les expériences aléatoires à une ou deux épreuves. » (Ibid, p.34)
Les programmes de 2015 concernant en particulier les années collège montrent une évolution en introduisant la notion de probabilité dès le début du cycle 4. Les élé-ments suivants (Tbl.1.1) concernant les probabililités sont mentionnés : Pour ce qui est du programme de la classe de seconde (MENLYC, 2009), il s’inscrit dans la continuité de ce qui est envisagé pour le collège. Les capacités attendues indiquées sont « Concevoir, mettre en oeuvre et exploiter des simulations de situations concrètes à l’aide du tableur ou d’une calculatrice. » (Ibid, p.8-10).
Quant à l’aménagement de ce programme de seconde effectif à la rentrée 2017 (MENLYC, 2017), il indique la disparition de la notion d’intervalle de confiance, la simulation étant elle, toujours présente comme en témoigne l’extrait présenté (Fig.1.2).

Liens entre statistiques et probabilités

Parce que la simulation nous parait pouvoir permettre une dialectique entre pro-babilités et  statistiques, il nous apparait nécessaire, dans un premier temps, d’inter-roger la présence de liens entre ces deux domaines dans les documents curriculaires qui sont censés guider le travail des enseignants.
Au collège
Dans le programme actuel de Cycle 4, les liaisons entre probabilités et statistiques apparaissent peu explicitées. Tout d’abord, la structuration du thème B (« Organisa-tion et gestion de données, fonctions ») regroupe dans un même tableau, sous l’entête « Connaissances » :
– « Interpréter, représenter et traiter des données » ;
– « Comprendre et utiliser des notions élémentaires de probabilités ».
Dans la première catégorie citée, nous trouvons :
Lire, interpréter ou construire un diagramme dans un contexte écono-mique, social ou politique : résultats d’élections, (…), données issues de l’étude d’un jeu, d’une oeuvre d’art. (MENCycles 2, 3, 4, 2015, p.373).
Si la mention «jeu de hasard» n’est pas précisée explicitement, nous pouvons ici l’évoquer comme un moyen d’envisager, via des parties de jeu, un recueil de données sur lesquelles s’appuyer pour travailler la notion de probabilité.
Des « repères de progressivité », faits pour guider l’enseignant, accompagnent les no-tions du programme en lui précisant une organisation des attendus.
On introduit et consolide petit à petit le vocabulaire lié aux notions élé-mentaires de probabilités (expérience aléatoire, issue, probabilité). Les élèves calculent des probabilités en s’appuyant sur des conditions de sy-métrie ou de régularité qui fondent le modèle équiprobable. Une fois ce vocabulaire consolidé, le lien avec les statistiques est mis en oeuvre en si-mulant une expérience aléatoire, par exemple sur un tableur. A partir de la 4ème, l’interprétation fréquentiste permet d’approcher une probabilité inconnue et de dépasser ainsi le modèle d’équiprobabilité mis en oeuvre en 5ème. (MENCycles 2,3,4, 2015, p.374.)
Le cheminement des élèves autour de la notion de probabilité doit s’appuyer sur une première approche en lien avec des considérations de symétrie empruntant le modèle de la loi uniforme. L’enseignant doit dans un premier temps travailler la probabilité a priori. L’approche fréquentiste n’apparaît qu’ensuite en classe de quatrième où la simulation peut être alors incluse pour la probabilité a posteriori La loi faible des grands nombres n’y est pas explicitement présente mais l’approche fréquentiste, elle, y est mentionnée. Notons toutefois, que si la loi des grands nombres apparais-sait dans les programmes des années 2000, elle a disparu au profit d’une approche plutôt heuristique. Les programmes de 2016 s’accompagnent aussi de potentialités nouvelles sur la simulation avec l’introduction de l’initiation à l’algorithmique et à la programmation. L’élève doit être capable en fin de cycle 4 « d’écrire, mettre au point et exécuter un programme simple. » (MENCycles 2,3,4, 2015, p.378). Cette partie du programme ne fait pas mention explicite de liens possibles à tisser avec les probabilités, via la simulation.
Au début du lycée
Concernant le lycée, le document d’aménagement du programme de seconde de 2017 (MENLYC, 2017) présente une division de l’organisation du programme en quatre parties dont la troisième est « Statistiques et probabilités ». D’un point de vue formel, il est intéressant de noter l’introduction 1 de cette section. C’est via la notion d’échantillonnage qu’apparaissent des réalisations de simulations. Des commentaires de deux types y sont présents : ceux précisant des artefacts possibles (tableur, calcu-latrice) ou une entrée algorithmique, ainsi que l’objectif de développer un question-nement chez les élèves lors d’estimation d’une proportion inconnue p à partir d’un échantillon, ou encore la prise de décision à partir d’un échantillon. Il s’agit aussi de faire percevoir le sens de l’intervalle de fluctuation d’une fréquence au seuil de 95%.
Ce tour d’horizon nécessite de prendre en compte le document Ressource Probabili-tés et Statistiques (MENLYC, 2009, p.7) qui accompagne le programme de seconde de 2009. La mention du choix préalable d’un modèle avant toute simulation est présente. En cela, ce document semble plus précis que celui d’accompagnement des programmes de 2008 pour le collège. Il donne comme premier exemple celui de la somme de deux dés afin d’éclairer l’enseignant sur une mise en oeuvre possible en classe permettant de confronter un modèle proposé et des données d’expériences. Si le contenu reste implicite sur la manière dont la simulation est menée en classe (qui l’élabore, qui l’utilise ?), il précise un des rôles possibles de la simulation comme ressort d’invalidation de modèles préalablement choisis. Les auteurs de ce document préconisent une invalidation du modèle mais n’indiquent pas clairement si elle est réalisée par l’enseignant lui-même.

L’enseignement des probabilités

Notre étude porte sur le travail des enseignants qui suivent une formation conti-nue. Les connaissances de ces stagiaires sur les probabilités sont diverses car les contenus d’enseignement qu’ils ont reçu en tant qu’étudiants et élèves varient sui-vant leur âge. En effet, leur nombre d’années d’enseignement oscille entre trois ans et une trentaine d’années pour les plus âgés. Ils ont donc vécu, en tant qu’élèves et étudiants, une ou deux approches concernant la notion de probabilité et n’ont connu pour certains qu’un usage des outils informatiques réduit à une calculatrice.
C’est pourquoi nous allons ici interroger les grandes lignes de l’évolution de l’ensei-gnement des probabilités, pouvant considérer qu’elles ont un effet sur les connais-sances des enseignants et ne sont sans doute pas neutres dans leur manière d’appré-hender les probabilités avec les élèves, pour et dans leurs classes.
Henry (2010), quand il dresse un panorama de l’évolution de l’enseignement secon-daire français en statistiques et probabilités, apporte des précisions sur son aspect dual. Il insiste sur cette double facette de la notion de probabilité à enseigner, en ajoutant, relativement aux formations autour de la notion de probabilité au collège : Un des enjeux actuels de la formation des professeurs de collège est (…) de faire appréhender cette dualité de la probabilité selon Ian Hacking (2002), entre valeur issue d’un calcul a priori quand les conditions le permettent et estimation a posteriori par l’observation expérimentale des fréquences, quand celle-ci est possible. (Henry, 2010, p.35-45)
Il livre des indications pour les formateurs d’enseignants concernant des ressources afin d’améliorer ce lien. Selon Henry : sa clarification passe par une compréhension en profondeur de la loi des grands nombres sous sa forme élémentaire du théorème de Bernoulli. (Ibid, p.36)
L’évolution de cet enseignement est en particulier dûe à la percée des outils de la statistique et à l’introduction de la pensée statistique dans l’enseignement secon-daire.
De 1965 à 1991, l’enseignement des probabilités est restreint à celui de la combi-natoire selon le premier principe de Laplace, à savoir le rapport du nombre de cas favorables à celui du nombre de cas possibles. Selon Henry, si cette définition est adaptée aux situations d’équiprobabilité des jeux de hasard, il en dénonce un biais :
Au niveau élémentaire, l’application directe de cette définition conduit à des problèmes de dénombrements. L’expérience a montré que bon nombre d’élèves conservaient un mauvais souvenir des exercices délicats de com-binatoire, source d’échec de cet enseignement. (Henry, 2010, p.36)
Ce dernier pointe ensuite, relativement à cette définition de la probabilité : son côté restrictif, qui ne permet pas de considérer la plupart des situa-tions aléatoires réelles (Henry, 2010, p.37), tout en faisant référence aux travaux de Meusnier (1987) concernant des propos de Bernoulli Au lycée, dans les années 1990, la définition du concept de probabilité évolue ainsi :
La probabilité d’un événement est définie par addition de probabilités d’événements élémentaires. (Ibid, p.37)
Dans sa forme générale, elle permet d’introduire les probabilités élémentaires (hy-pothèses de modèle, estimation fréquentiste, …). Henry ajoute des remarques sur la mise en place de ces programmes des années 1990 à savoir :
– qu’elle suppose en particulier :
la mise en oeuvre dans la classe d’expériences concrètes répétées, mul-tipliées par l’accumulation des observations des élèves. (Ibid, p.38)
– que l’équiprobabilité n’est pas le premier élément mis en avant cette fois.
– et aussi :
que le vocalulaire ensembliste est cette fois appelé pour combiner for-mellement les événements sans références à leurs significations concrètes. (Ibid, p.38)
Il souligne en particulier l’existence dans les classes :
d’une réelle disjonction entre l’introduction expérimentale de la notion de probabilité et les calculs théoriques qui sont ensuite demandés. (Ibid, p.38)
Nous tenterons donc de repérer si l’enseignant favorise ou non une introduction expérimentale suivie de calculs théoriques dans la mise en oeuvre d’un problème de probabilités dans sa classe. Cela pose ici la question des liens entre fréquence et probabilité. L’approche fréquentiste ou objectiviste des années 1990 pourrait, selon Henry, suggérer de définir la probabilité comme fréquence stabilisée. (Henry, 2010, p.40). Il rappelle la définition fréquentiste d’une probabilité par Renyi(1966) donnée dans son cours universitaire comme suit (1966, p.26) à savoir :
Si la fréquence relative d’un événement aléatoire oscille autour d’un cer-tain nombre, ce nombre est appelé la probabilité de l’événement considéré. (Renyi, 1966, p.26)
Elle nous semble intéressante à prendre en considération tant les élèves ont des difficultés à discerner fréquence et probabilité, et nous pouvons tenter de rapprocher le discours des enseignants de cette dernière définition, dans le flou qu’elle engendre. Henry la critique en s’appuyant sur le théorème de Bernoulli (ou la loi faible des grands nombres) qu’il formalise ainsi :
Si Fn désigne les fréquences de réalisation d’un événement pour n répétitions d’une expérience aléatoire, P la probabilité de cet événement : Pour tout ε et α positifs, et tout entier n assez grand, P (Fn ≠ ε < p < Fn + ε) > 1 ≠ α.
Pour lui, il faut distinguer clairement :
– le domaine de la réalité où l’on observe les fréquences Fn de réali-sations d’un événement au cours de n répétitions d’une même expé-rience aléatoire.
– le domaine théorique (mathématique) où les objets sont définis abs-traitement. (Ibid, p.41)
Quant à la loi faible des grands nombres, elle est présente de manière « vulgarisée » dans les programmes de Première S en 2000, sous la forme :
Pour une expérience aléatoire donnée, dans le modèle défini par une loi de probabilité P, les distributions des fréquences obtenues sur des séries de taille n se rapprochent de P quand n devient grand.(MENLYC, Première S)
Cette loi incarne le lien empirique entre la valeur calculée a priori et une observation de la stabilisation de la fréquence dans une longue série d’expériences répétées de façon identique. Et Henry considère que cet énoncé confère de manière explicite un statut de modèle à une loi de probabilité. Pour autant, les lois de probabilité ne sont pas à la portée des élèves de classe de troisième et seconde, même si, pour cer-tains, ils ont déjà fréquenté des lois comme la loi uniforme à travers des situations de jeu familières. Toute l’axiomatique des probabilités ne leur est pas accessible, mais la simulation bien présente dans les programmes de collège incite les ensei-gnants à prendre appui sur elle pour travailler l’approche fréquentiste. L’entrée de la simulation informatique se fait en 2000 dans les programmes de lycée. Elle doit permettre : de traiter des séries statistiques de grandes dimensions et de visualiser les effets de la loi des grands nombres. (Girard et Henry, 2005, Schwartz, 2006)
L’arrivée tardive dans le cursus des élèves de l’introduction de loi de probabilités (au lycée, en classe de Première) pourrait ainsi expliquer des décisions prises par les enseignants pour leur classe autour de tâche de simulation mobilisant des mo-dèles. Nous poursuivons désormais notre enquête sur les recherches disponibles sur la simulation en probabilités et statistiques.

Bilan des recherches sur ce thème

Les travaux de Gaydier

La thèse de Gaydier (2011) dont le titre est « Simulations informatiques d’ex-périences aléatoires et acquisition de notions de probabilités au lycée. », s’intéresse aussi à la simulation d’expériences aléatoires avec un objectif distinct. Elle établit un modèle pour décrire les liens entre simulation informatique et modélisation, avec une étape de pré-modélisation commune aux tâches de simulation et de modélisation probabiliste. Pour cela, elle analyse le travail de l’élève, et non celui de l’enseignant comme nous le ferons. Certains éléments de sa recherche éclairent cependant ce qui se joue dans la mise en place de simulations.
L’auteur précise les liens entre expérience aléatoire, modélisations et simulations, et elle propose une modélisation de ceux-ci. Gaydier interroge ce qui est privilégié au lycée entre les approches laplacienne et fréquentiste et rappelle à cette occasion les deux courants (objectiviste et subjectiviste). Ces courants sont par ailleurs précisés par Nechache (2016) qui donne un éclairage épistémologique et didactique sur la probabilité (Ibid, pp.39-45).
Gaydier pointe des difficultés didactiques, non pas des enseignants, mais des élèves comme le biais d’équiprobabilité ou celui de la représentativité avec la loi des grands nombres étendue aux petits nombres. Elle souligne que la question du nombre de simulations est souvent posée mais sans interroger son but. Les mesures des probabilités des événements décrétées vraies ou fausses, pour être vérifiées, sont aussi soumises à validation. Cette validation porte sur les choix de l’espace proba-bilisé : il y a confrontation entre les calculs et des résultats empiriques.
La question : « Combien d’épreuves seraient nécessaires pour valider/invalider le choix ? » reste en théorie, hors de portée des élèves lycéens selon Gaydier. Elle note toutefois que : « la validation du modèle dépend du choix des axiomes locaux liés à l’ex-périence, et qu’elle ne se ferait pas par une démonstration mathématique sur la règle du modus ponens. Ceci impliquerait des réticences de la part d’enseignants qui contesteraient l’appartenance des probabilités via l’ap-proche fréquentiste aux mathématiques. » (Ibid, p.84)
Nous signalons que cette question a été plus largement traitée par Nechache(2016) qui a mené des travaux sur la question de la validation dans l’enseignement des pro-babilités au niveau secondaire. Son étude enrichit sur ce point les travaux de Gaydier. Concernant les documents curriculaires, Gaydier pointe aussi une définition circu-laire de la simulation où la simulation d’une expérience aléatoire est confondue avec celle de la loi de probabilité associée. Elle rejoint en cela la critique de Girard(2004) suivante qui parle de « cercle didactique vicieux. » (Ibid, p.88) : (…) pour simuler une expérience en seconde, il faut avoir un modèle, c’est à dire une loi de probabilité que l’on introduira en première seule-ment. Gaydier indique que cette définition est contredite par la pratique : la simulation précède la détermination de la loi de probabilité.
Dans les classes, les lois de probabilité seront alors définies par analogie avec les distributions de fréquences obtenues dans la simulation. (Girard, 2004, p.86)
Ceci nous semble important à mentionner ici car le travail des enseignants sur la simulation peut être impacté par une opacité dans les rapports entre simulation et modèles dans les documents de référence à leur portée.
Gaydier définit donc les contours de ce qu’elle appelle une simulation acceptable, c’est une autre expérience aléatoire que l’on peut réaliser (Ibid, p.109).
Nous avons en commun avec Gaydier une même tâche de probabilité pouvant faire intervenir la simulation. Empruntant la Théorie Anthropologique du Didactique (Chevallard, 1999), Gaydier a réalisé une analyse initiale du problème du lièvre et de la tortue que nous partageons dans notre enquête. Au delà de ses apports sur la notion de simulation, certains des concepts qu’elle introduit nous aident à mieux appréhender dans un premier temps le travail des enseignants sur cette même tâche. Si notre cadre théorique est différent, nous avons pris appui sur ses travaux pour mener notre analyse épistémologique du problème du lièvre et de la tortue et décrire une mise en oeuvre attendue (chapitre 2, pp.48-61).
Des expériences aléatoires élémentaires et composées
Dans le cadre de l’enseignement secondaire, Gaydier énumère les trois définitions au programme de la Terminale (MENLYC, Terminale, 2000) sur la notion de modèle probabiliste, en incluant l’arbre de probabilité parmi ceux-ci, ce dont nous pourrons rediscuter. Elle explicite aussi ce qu’elle appelle des expériences aléatoires élémen-taires, et précise comment elles peuvent être simulées informatiquement. Pour elle : une expérience aléatoire composée, est l’enchaînement d’au moins deux expériences aléatoires élémentaires, non nécessairement indépendantes. (Gaydier, 2011, p.149).
Cette catégorisation est liée aux artefacts employés et à leur potentiel. Une autre définition sur laquelle repose ce qu’elle nomme l’étape de pré-modélisation, est celle d’expériences aléatoires équivalentes 2. Quand les univers sont finis, ceci est réalisé si les expériences ont le même nombre d’issues et la même loi de probabilité associée à celles-ci (à l’ordre des probabilités des issues près).
La simulation est aussi définie comme une expérience aléatoire équivalente à celle initiale et effective, pouvant être répétée et facilement mise en œuvre (tirage dans une urne ou ordinateur) et précise : (…) qu’elle est conçue pour fournir des résultats expérimentaux (on par-lera de données empiriques) (Ibid, p.153)
En ce sens, Gaydier rejoint la définition de Parzysz (2009).
Un retour est effectué sur le problème du lièvre et de la tortue, pour illustrer la définition suivante : simuler, c’est construire une simulation de l’expérience. (Gaydier, 2011, p.153)
La simulation construite (à l’aide d’un des programmes envisagés) ayant même mo-dèle probabiliste (en terme d’expérience aléatoire) que celui de l’expérience initiale, c’est bien une simulation au sens défini ci-dessus et non au sens restrictif des pro-grammes.
Les hypothèses de modélisation
Nous rejoignons Gaydier pour qui la simulation et la modélisation sont les résultats des actions simuler et modéliser.
2. Deux expériences aléatoires sont équivalentes si on peut leur associer un modèle probabiliste commun, à une bijection près sur l’ensemble des issues. La définition de ces modèles passe éventuel-lement par des hypothèses, ou des réductions, sur ces expériences tel les que : « le dé est équilibré », « la pièce ne peut retomber que sur l’une de ses deux faces ». » (Gaydier, 2011, p.151)
Une simulation et un modèle probabiliste sont adossés à une ou plusieurs hypothèses qui détermineront l’élaboration d’un modèle probabi-liste. (Ibid, p.156)
Sa recherche oriente dans notre première question vers la recherche de la manière dont un enseignant envisage et gère les liens entre expérience aléatoire, modèle et simulation en classe.
A propos des hypothèses de modélisation, Gaydier ajoute que celles-ci vont porter sur des expériences élémentaires qui composent l’expérience : elles déterminent la loi de probabilité de ces expériences élémentaires.
Elles ne sont donc pas associées au modèle probabiliste attenant à l’expérience glo-bale. Ce choix des hypothèses de modélisation précède la détermination du modèle probabiliste de l’expérience aléatoire, mais soutient aussi la construction d’une si-mulation.
Plusieurs choix d’hypothèses de modélisation peuvent être faits pour une expé-rience aléatoire, mais le choix préalablement retenu va déterminer une unique loi de probabilité pour l’expérience globale. Simuler une expérience aléatoire globale revient donc à composer les simulations des expériences aléatoires élémentaires.
Si Gaydier éclaire sur des choix sous-tendus à la simulation, rien n’est précisé concer-nant qui agit par rapport aux modèles probabilistes : sont-ils libres ou imposés, par qui ? Nous pouvons nous demander s’il n’y aurait pas une influence des artefacts embarqués pour la simulation dans ces choix ? Ce problème n’est pas soulevé par Gaydier qui impose le tableur dans son ingénierie didactique.
Relativement à notre enquête, la pré-modélisation, étape d’émission des hypo-thèses de modélisation nous paraît donc importante à observer dans la manière dont elle est négociée entre l’enseignant et les élèves. Elle se décompose ainsi : il y a d’abord le repérage des expériences aléatoires élémentaires, puis l’émission des hypo-thèses amenant à mathématiser les issues possibles de ces expériences élémentaires. Cette dernière phase est reliée à l’interprétation de certains éléments du dispositif (comme considérer l’indépendance de lancers).
Choisir les hypothèses de modélisation pour chaque expérience élémentaire est indispensable mais nous nous demandons si cette étape est identifiée par les élèves ou suffisamment éclairée par les enseignants pour permettre l’accès à une simulation. Cette pré-modélisation est commune et nécessaire aux deux activités de modélisa-tion et simulation. Cependant, l’agencement entre les expériences élémentaires nous semble central concernant la simulation et ce point n’est pas explicité par Gay-dier. Cette phase pourrait s’avérer problématique aussi en classe dans sa gestion par l’enseignant si elle n’est pas accompagnée par un travail spécifique du professeur.

D’autres recherches sur la simulation

Faisant un tour d’horizon de thèses portant sur la simulation d’expériences aléa-toires, plusieurs références ont en commun ce thème de recherche mais exposent des objectifs différents que nous évoquons ici rapidement.
Pour Zaki (1990), la démarche expérimentale est favorisée chez ses étudiants. Dans un article intitulé Démarches de résolution et de simulation face au problème de la ruine d’un joueur » (Zaki et Pluvinage, 1991), les auteurs interrogent plus pré-cisemment la place de la modélisation dans une partie du traitement de résolution de problèmes probabilistes. L’article précise les questions suivantes : « La pratique de la simulation préconisée par certains est-elle une solution miracle ? Les étudiants sont-ils naturellement sensibles à une approche fréquentiste des proba-bilités ? »
Ce dernier questionnement est une préoccupation commune à notre recherche où nous tenterons de déceler si la simulation d’expériences aléatoire est insufflée par l’enseignant dans les classes ou si les élèves se tournent « naturellement » vers elle, et pour enclencher quel type de preuve. Bordier (1991) considère la simulation comme un appui pour corriger des concep-tions erronées d’élèves ou d’adultes. L’environnement informatique intervient dans son étude comme un laboratoire grâce auquel il est possible de résoudre des tâches probabilistes et de valider des idées, en définissant une expérience et en la simu-lant un grand nombre de fois (et en scrutant l’évolution des données issues de ces expériences simulées). Pour Bordier, il s’agit de compenser le manque d’expérience véritable que les individus ont des phénomènes aleatoires. La simulation est ici per-çue comme un ressort pour travailler les intuitions et « misconceptions » liées à la notion de hasard.
Nous n’adopterons pas ce point de vue pour notre étude, mais pourrons toutefois rencontrer au fil de nos travaux des « misconceptions » entourant le travail de simu-lation. Il nous faudra les prendre en considération en terme d’impact sur le travail de l’enseignant.
Coutinho (2001) a conçu un processus d’apprentissage axé sur la modélisation de situations de la réalité, limitées au contexte probabiliste de Bernoulli. Les tâches qu’elle propose aux élèves de niveau collège mettent en oeuvre des simulations infor-matiques d’expériences aléatoires. Elles sont présentées dans un cadre géométrique avec l’environnement Cabri-géomètre II. Coutinho introduit dans ses travaux en particulier une étape intermédiaire avant la notion de probabilité (notion de pré-probabilité).
Nechache (2016) s’intéresse dans sa thèse en partie à la simulation, en traitant de la question de la validation en probabilité ; elle y décrit des formes de validation dans l’Espace de Travail Mathématiques ou E T M (Kuzniak, 2011). Dans le cas du recours à un modèle probabiliste numérique, elle précise à propos des enseignants que : Les styles argumentaires vont donner lieu à des formes de validation caractérisées par l’usage de la dimension instrumentale, où les traite-ments sont réalisés d’abord via une simulation informatique, puis via un recours aux outils théoriques du référentiel théorique tels que la loi des grands nombres, ou aux outils théoriques issus de la statistique tels que les intervalles de confiance. (Nechache, p.356)
Notre étude en particulier s’attachera aussi à repérer des formes de validation dans l’E T M dans un contexte de classe incluant la simulation d’expériences aléa-toires et nous rechercherons les preuves privilégiées par les enseignants dans les classes. En cela, nous rejoignons la préoccupation de Gaydier (2011) : Pourquoi un algorithme engendre-t-il une simulation d’une expérience aléatoire quand il n’a pas été construit à partir du modèle probabiliste de cette expérience ? (Gaydier, 2011, p. 155)
Ce point sera interrogée du point de vue du travail de l’enseignant dans sa classe. Gaydier, pour y répondre, précise que si la simulation est incluse dans le modèle probabiliste de l’expérience aléatoire, elle apportera peu de choses à l’étude de l’expérience aléatoire d’origine (…) elle pourra permettre une illustration de la loi des grands nombres ou de la notion d’intervalles de fluctuations (Ibid, p.155)
Le problème de la construction d’une expérience aléatoire sans associer un modèle probabiliste questionne la notion de preuve qu’une simulation est bien ce qu’elle prétend être. Nous devrons prendre en considération les rapports entretenus par les enseignants entre simulation et preuve pour et dans leur classe.
Dans sa thèse, Kiet (2015) a intégré la simulation d’expériences aléatoires en considérant cinq tâches testées au Vietnamm. Il se distingue de ma recherche car son étude porte sur le travail de ses étudiants. Il a établi un parcours de cinq tâches (incluant le jeu du lièvre et de la tortue) avec un protocole encadrant la place et la manière de réaliser la simulation lors de la résolution de ces tâches : In each situation, students first do some hands-on experiments to be fa-miliar with the game. Then a discussion occurs about the probability of event(s). After that, students build a simulation and observe frequencies and fluctuation of these frequencies.The final step is the classical mathe-matical computation. (Kiet, 2015, p.98)
Kiet justifie ce choix en partie pour rapprocher les deux approches de la notion de probabilité : This implementation is assumed to put at stake tasks and techniques related to simulation, connecting the frequency approach and the classical approach (…), (Ibid, p.98)
Nous nous situerons, en tant que chercheur, dans une démarche moins dirigiste de mise en oeuvre d’une tâche dans une classe car notre enquête cherche à comprendre le travail des enseignants (et non des étudiants comme Kiet). Cependant, les approches fréquentistes et laplacienne feront aussi partie de notre étude : nous tenterons de repérer si l’enseignant favorise cette diversité d’approches quand il donne à ses élèves une tâche pouvant inclure de la simulation.

Précision de mes questions

Dans cette partie, nous exposerons une étude exploratoire importante car elle a contribué parallèlement à préciser nos questions de recherche et à élaborer notre cadre théorique avec une méthodologie associée.

Un état des lieux : la formation donnée au Havre

Nous relatons le contexte de notre première recherche. Elle s’appuie sur deux journées de formation continue ayant pour cadre une liaison collège-lycée d’un bas-sin d’enseignement sur Le Havre. Cette formation a été l’occasion de préciser ma problématique avec un échantillon de vingt-six enseignants.
Cette formation était à l’initiative d’enseignants de lycée et de collège qui cher-chaient à construire une culture commune autour de ressources dans le domaine des probabilités. Elle s’est déroulée en deux temps et nous relatons des éléments de la deuxième partie où les enseignants se sont retrouvés un an après avoir suivi une formation. Cette formation était tournée vers un apport de problèmes pouvant impliquer de la simulation, dans le domaine des probabilités. Lors de la première journée en 2014, les stagiaires, aidés par deux formateurs ont, en particulier, élaboré des simulations avec des artefacts comme le tableur, sur des problèmes pour des classes de troisième et seconde. L’idée était que ces enseignants pourraient ensuite les intégrer dans leurs classes. Ces stagiaires ont un nombre d’années d’enseignement et un niveau d’expertise va-riés. Ils n’ont pas été retenus pour notre recherche en fonction de critères particuliers. Notre enquête s’est construite en deux temps, avec tout d’abord un questionnaire.
Ensuite, les enseignants ont réalisé un travail autour du problème du lièvre et de la tortue où ils ont en partie travaillé en groupe. Nous livrons dans la suite les résultats de cette étude.
Le questionnaire
Un questionnaire préalable à destination des stagiaires portait sur l’intégration de simulation dans leurs propres classes de troisième ou seconde, un an après leur première journée de formation. Sur les 26 stagiaires concernés au total, 7 enseignent au lycée et 19 au collège. En recoupant les réponses des stagiaires avec leurs années d’enseignement et la nature de leur poste (collège ou lycée), nous avons dégagé des premières tendances.
Seulement la moitié d’entre eux a déclaré avoir intégré des simulations depuis un an. Sans rentrer dans le détail des réponses apportées, nous avons remarqué une proportion d’enseignants de lycée plus élevée que d’enseignants de collège intégrant la simulation. Il faut sans doute relier cet aspect aux contenus d’enseignement du lycée. Cependant, cette catégorie d’enseignants n’est pas négligeable parmi ceux qui n’en n’ont pas intégré.
La moitié de ceux qui déclarent ne pas faire de simulation dans leurs classes, sont censés avoir reçu un enseignement incluant l’approche fréquentiste de la probabi-lité dans leur parcours d’élève dans le secondaire. L’usage de la simulation par les enseignants dans leur classe ne semble pas uniquement dépendre des contenus d’en-seignement que ceux-ci ont théoriquement eu au lycée. Il nous manque évidemment des informations concernant le cursus universitaire de chacun pour pouvoir étayer nos propos.
Les seize enseignants (parmi les vingt-six) n’ayant pas intégré la simulation dans leurs classes, ont évoqués de multiples raisons. Ces freins sont variés. Certains sont liés à l’environnement de l’enseignant comme le nombre d’élèves par classe, le type d’élèves, la maintenance informatique, les niveaux de classe. D’autres difficultés concernent directement la notion de probabilité, et sa place tardive dans une pro-gression annuelle. La double question du temps est évoquée avec d’une part des situations incluant de la simulation qui sont jugées chronophages. D’autre part, le temps à investir par l’enseignant autour de la simulation est aussi mentionné.
Ceux qui intègrent la simulation citent des tâches variées telles que « Franc-carreau », « le lancer de pièce », « la somme de deux dés ». Nous en retrouvons qui ont été proposées en formation un an avant. Parmi ces enseignants, certains semblent confondre la réalisation d’une expérience aléatoire à la main et la notion même de si-mulation. Ils mentionnent au maximum l’usage de deux artefacts numériques pour la simulation, et leur choix semble unique pour chaque tâche. Ces enseignants précisent aussi des difficultés de diverses natures. Majoritairement, un souci lié aux logiciels embarqués apparaît et quatre enseignants mentionnent le tableur. Ils incriminent la méconnaissance de certaines fonctionnalités du tableur par les élèves et leur propre niveau de maîtrise de la programmation.
La gestion de la classe relativement à de la manipulation d’objets afin d’obtenir des données statistiques pose des difficultés à certains enseignants. Cette question de la gestion de classe est essentielle car elle est mentionnée à plusieurs reprises. Globa-lement, les stagiaires renvoient la responsabilité des écueils rencontrés en classe aux élèves, et ne questionnent à aucun moment leur rôle autour de la manière d’intro-duire une tâche et sa dévolution. Ils n’envisagent pas les moyens qu’ils auraient pour débloquer des élèves en difficulté, ni des interventions possibles.
En conclusion, des connaissances variées semblent nécessaires à la mise en oeuvre de la simulation, de la part des enseignants. De plus, les réponses des enseignants au questionnaire viennent conforter un rapport existant de la Commission de Suivi du programme de mathématiques de la classe de seconde (2013) sur l’usage des TICE qui pointe :
– une utilisation occasionnelle de ces derniers ;
– un accès encore difficile pour certains enseignants au matériel informatique. Ce dernier indique : (…) qu’une utilisation plus régulière des logiciels par l’enseignant devant la classe pourrait permettre de s’affranchir de cette étape (d’appropria-tion des fonctionnalités des logiciels). (MEN, 2013, p.10)
Un travail sur le problème du lièvre et de la tortue
Dans le but de préciser notre question initiale de recherche concernant la si-mulation, un travail autour du problème du lièvre et de la tortue a été donné aux enseignants stagiaires du Havre. L’énoncé initial
L’énoncé initial (Fig. 1.5) de ce problème, proposé en formation au Havre, sert ici de point de départ pour notre étude.
Cet énoncé des règles du jeu ne comporte aucune représentation du parcours, laissant la liberté aux enseignants d’en choisir une si besoin. Une ambiguïté volon-taire est laissée dans la formulation « on dispose d’un parcours à 5 cases en ligne. » La place du départ (à choisir entre une ligne avant la première case et la première case) ainsi que la place de l’arrivée (située dans la dernière case ou au delà) peuvent être diverses options envisagées qui auront un impact dans la résolution du problème.
Aucune question ne figurait dans cette présentation, celle-ci étant juste l’exposi-tion du jeu et de ses règles, afin que les enseignants puissent choisir à leur guise la consigne à poser. Cette dernière resterait au choix des enseignants pour un niveau de classe visé.
Le travail demandé aux enseignants
Contraints par le choix du lièvre et de la tortue, nous avons imaginé que les ensei-gnants commenceraient par fixer une question et résoudre pour eux-mêmes la tâche individuellement pendant 10 à 15 minutes. Assis à des tables déjà configurées en groupe de quatre personnes, les stagiaires ont reçu ensuite la consigne d’imaginer collectivement un scénario de classe pour un niveau de leur choix. Des dés, et une classe mobile avec des ordinateurs étaient à disposition à leur demande, ce qui avait été signalé dès le début de l’étude.
Le travail effectif des enseignants
La recherche du problème, qui devait s’effectuer en premier et individuellement s’est assez vite transformée en échanges, certains enseignants se trouvant en difficultés et cherchant de l’aide auprès de leurs pairs pour sa résolution. Assis par groupes de trois ou quatre comme ils le souhaitaient, les enseignants ont ensuite imaginé un scé-nario (avec consigne, artefacts engagés) pour un (ou plusieurs) niveau(x) de classe (pour certains groupes d’enseignants mixtes du lycée et du collège). Cette phase a duré environ 2h, phase où ils devaient produire un écrit sur les idées partagées et des fichiers numériques si besoin. Ensuite, une exposition à tous des productions de groupe s’est tenue, un enseignant venant communiquer à l’ensemble des stagiaires la production de son collectif. Les enseignants présents pouvaient alors librement intervenir et réagir à la communication présentée. Cette phase a duré autour de 40 minutes. Le document en ANNEXE 1.1 (pp.1-30) est la compilation des écrits des groupes.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Liste des tableaux
Introduction générale
Ma question de recherche
Le suivi d’une trajectoire
Organisation de la thèse
1 Simulation, recherche exploratoire et premières questions 
1.1 Une définition de la simulation d’expériences aléatoires
1.2 La place de la simulation dans les programmes de probabilités et statistiques
1.2.1 Liens entre statistiques et probabilités
1.2.2 L’enseignement des probabilités
1.3 Bilan des recherches sur ce thème
1.3.1 Les travaux de Gaydier
1.3.2 D’autres recherches sur la simulation
1.4 Le problème du lièvre et de la tortue
1.4.1 Une tâche emblématique
1.4.2 Le problème du lièvre et de la tortue et la recherche
1.5 Précision de mes questions
1.5.1 Un état des lieux : la formation donnée au Havre
1.6 Conclusion
2 Les questions de recherche, le cadre et la méthodologie de recherche 
2.1 Introduction : plan et objectifs de ce chapitre
2.2 Description du cadre théorique
2.2.1 La théorie des Espaces de Travail Mathématique
2.2.2 Le cycle de modélisation de Blum et Leiss
2.3 Précisions sur nos questions de recherche.
2.3.1 Retour sur notre question initiale de recherche
2.3.2 Expérience aléatoire, simulation et modèles mathématiques
2.3.3 Artefacts et simulation
2.3.4 Simulation et preuve
2.3.5 Conclusion sur nos questions de recherche
2.4 Outils méthodologiques pour l’étude d’une tâche emblématique
2.4.1 Présentation du problème du lièvre et de la tortue
2.4.2 Grille et éléments d’analyse épistémologique de la tâche
2.4.3 Itinéraire cognitif de la tâche dans les ETM
2.4.4 Description d’un ETM idoine attendu
2.4.5 Synergie didactique potentielle autour du travail de groupe
2.5 La méthodologie générale de recherche
2.5.1 La notion d’avatar
2.5.2 La trajectoire d’un problème
2.6 Les études prévues sur les différents couples
2.6.1 Avant la formation : précision de l’ETM idoine suggéré en formation (B1)
2.6.2 Pendant la formation : itinéraires et circulations (B2)
2.6.3 Après la formation : itinéraires et circulations (B3)
2.7 Eléments de contexte de la formation
2.7.1 Précisions sur les acteurs dans la formation (B2)
2.7.2 Le calendrier de la formation
2.7.3 Une dynamique de travail collectif-individuel des stagiaires en formation
2.7.4 Des précisions sur notre méthodologie
2.8 Conclusion
3 Première boucle (B1) : étude de l’ETM idoine suggéré en formation 
3.1 Introduction : plan et objectifs de ce chapitre
3.2 Présentation de la première boucle
3.2.1 Situation d’avatars
3.2.2 Eléments de contexte
3.3 Eléments de méthodologie complémentaires, spécifiques à la première boucle
3.3.1 Les analyses prévues à l’étape 1 de la première boucle
3.3.2 Le modèle des MTSK
3.3.3 Le cycle de modélisation de Blum et Leiss
3.3.4 Blocages, rebonds et confinements dans l’ETM
3.4 Données étudiées concernant la boucle avant la formation (B1)
3.5 Le premier couple de l’étape B1,1 : caractérisation et rôle
3.5.1 L’avatar de Lucie, étape B1,1
3.5.2 Données concernant l’étape B1,1 de Lucie
3.5.3 Description de la mise en oeuvre par Lucie
3.5.4 Apports des circulations étudiées des groupes
3.6 Le deuxième couple du collectif de formateurs (B1,2)
3.6.1 Genèse d’un avatar pour la formation
3.6.2 Réflexions des formateurs sur l’étape B1,1
3.6.3 Conclusion des formateurs : naissance du couple de l’étape B1,2141
3.6.4 Description du couple de B1,2
3.6.5 Eléments retenus par le collectif, pour la formation
3.6.6 Grilles : indices des ETMpersonnel des formateurs
3.7 Conclusion
3.7.1 Premiers résultats sur nos questions de recherche
3.7.2 Conclusion sur les itinéraires cognitifs et la circulation de l’étape 1
3.7.3 Les contours de l’ETM idoine suggéré en formation
3.7.4 Un deuxième point sur nos questions de recherche
3.7.5 Perspectives de recherche
4 Deuxième boucle (B2) : la formation 
4.1 Introduction : plan et objectifs de ce chapitre
4.2 Eléments méthodologiques spécifiques de la deuxième boucle
4.2.1 Etapes 1 et 2 de la formation : articulation avec la boucle B1
4.2.2 Etape 3 de la formation : description
4.2.3 Spécificité de certains stagiaires
4.3 Les analyses prévues sur la formation (B2)
4.3.1 Sur la préparation collective du scénario (B2,1)
4.3.2 Sur la mise en oeuvre du scénario par un enseignant-expérimentateur (B2,2)
4.3.3 Sur l’analyse collective a posteriori du scénario (B2,3)
4.4 Description de l’atelier Souris
4.4.1 La préparation collective du scénario (B2,1)
4.4.2 La mise en oeuvre du scénario en formation (B2,2)
4.4.3 Apports des circulations étudiées (B2,2)
4.4.4 Analyse collective du scénario de formation (B2,3)
4.4.5 Alternatives au scénario vécu en formation (B2,3)
4.5 Description de l’atelier Poussins
4.5.1 La préparation collective du scénario (B2,1)
4.5.2 La mise en oeuvre du scénario en formation (B2,2)
4.5.3 Apports des circulations étudiées (B2,2)
4.5.4 Analyse collective du scénario de formation (B2,3)
4.5.5 Alternatives au scénario vécu en formation (B2,3)
4.6 Evolutions observées en formation
4.6.1 Le cas des Souris
4.6.2 Le cas des Poussins
4.6.3 Dénaturation simplificatrice
4.7 Conclusion de la deuxième boucle
4.7.1 Expérience aléatoire, modèle et simulation (QR1)
4.7.2 Artefacts numériques et simulation (QR2)
4.7.3 Simulation et preuve (QR3)
4.7.4 Le travail en groupe, quelle pertinence ?
4.7.5 Perspectives de questionnement
5 Premiers effets de la formation : troisième boucle (B3) 279
5.1 Introduction : plan et objectifs de ce chapitre
5.2 Eléments méthodologiques spécifiques d’après formation (B3)
5.2.1 Une troisième journée de formation
5.2.2 Les analyses prévues sur la boucle B3
5.3 Absences d’avatars chez des stagiaires
5.3.1 Parmi les stagiaires Poussins
5.3.2 Parmi les stagiaires Souris
5.3.3 Conclusion pour les deux ateliers
5.3.4 Le cas de Malo : une tentative échouée
5.4 Le cas de Mattéo : un avatar repris de la formation
5.4.1 Couples étudiés de la boucle B3 (étape 1)
5.4.2 Données concernant l’étape 1 de Mattéo
5.4.3 Caractérisation du travail de Mattéo
5.4.4 Conclusion (Mattéo)
5.5 Le cas de Christian : un avatar recomposé issu de la formation
5.5.1 Données concernant l’étape 1 de Christian
5.5.2 Caractérisation du travail de Christian
5.5.3 Conclusion (Christian)
5.6 Conclusion sur des effets de l’ETM suggéré
5.6.1 Mise en perspective
5.6.2 Les types de transformations opérées
5.6.3 Conclusion
Conclusion générale 
Originalité de nos travaux et apports théoriques
Synthèse des résultats
Limites de notre recherche
Prolongements et perspectives
Bibliographie 

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *