Etude du travail de l’enseignant autour de la simulation en classe de troisième et seconde

Une définition de la simulation d’expériences aléatoires

     Dans cette section, nous nous attacherons à dévoiler les différentes facettes de ce que recouvre la notion de simulation en probabilité. En nous appuyant sur les travaux de recherche existant, nous donnerons une définition de la simulation du point de vue expérimental et épistémologique, tout en liant cette notion avec celle de modèle probabiliste. Lors de notre tour d’horizon des recherches existantes, Girard a initialement retenu notre attention car il pointe notre constat et indique « un risque d’assimilation entre fréquences observées et probabilité » la méthode statistique permettant la reconstitution fictive de l’évolution d’un phénomène. C’est une expérimentation qui suppose la construction d’un modèle théorique présentant une similitude de propriétés ou de relations avec le phénomène faisant l’objet de l’étude. (? ) Aussi, nous retiendrons comme axe d’étude le couple simulation-modèle. Nous pouvons dès lors imaginer qu’une certaine confusion entre modèle et réalité pourrait impacter la manière dont les enseignants appréhendent et mènent une tâche de simulation dans leur classe. Ce rapprochement entre modèle et simulation nous semble être un premier axe à prendre en considération dans nos travaux. Avant de poursuivre notre quête de définition de la simulation, nous faisons un pas de côté en considérant l’action de simuler. Simuler suppose de se référer à un modèle probabiliste, concept accessible uniquement en classe de première grâce au « schéma d’expérience », au sens de ? (2009a). « Le repérage des analogies présentées par des expériences diverses, grâce à l’étude de procédures mises en oeuvre pour les simuler – notamment à l’aide du tableur qui se prête bien aux comparaisons – amène à la notion de schéma d’expérience préparant à celle de modèle probabiliste.(…) Simuler, c’est faire prendre conscience des points communs entre des expériences diverses, de l’existence d’un modèle d’expérience associée ». (Ibid, p.91) Parzysz précise que cette démarche n’est pas simple pour les élèves, et considère en particulier le tableur comme pouvant aider à mettre sur la voie de la modélisation. Notre enquête, sur ce point, investiguera la question des artefacts numériques pour la simulation d’expériences aléatoires, sans restriction au tableur. Elle s’attardera aussi sur d’autres types d’artefacts matériels (dés à jouer, …) et symboliques (arbres, …) qui peuvent intervenir aux abords du travail de simulation. Nous situant en fin de collège, nous mentionnons une difficulté de chronologie des enseignements, au niveau du collège, relatif à la simulation et au modèle, soulignée par ? (2010). À propos de simulation, le point essentiel est que ce qui est simulé est un modèle probabiliste, ce qui pose théoriquement problème au début de l’enseignement, avant la mise en place de cette notion. Cette difficulté peut néanmoins être contournée si l’on recourt à des simulations qui présentent une congruence sémantique avec l’expérience réelle et en explicitant les hypothèses probabilistes sous-jacentes. (Parzysz, 2010, p.137) De l’étude des manuels de seconde, Parzysz dégage les quatre propriétés caractérisant le mot Simuler :
– une substitution de l’expérience par une simulation ;
– une analogie entre expérience et simulation, une sorte de remplacement qui n’indique pas comment être certain de la similitude des résultats ;
– une économie de moyens (avec l’idée de rapidité) ;
– une convocation d’un modèle théorique (c’est faire un choix de modèle).
En accord avec la définition du statisticien Dodge (1993), Parzysz synthétise ce qui précède en précisant la simulation comme suit : Elle consiste à remplacer une expérience aléatoire qu’on se propose d’étudier par une autre expérience, plus facile et/ou plus rapide à mettre en oeuvre, mais qu’il faut pour cela s’assurer que cette simulation reflète statistiquement l’expérience initiale, l’adéquation entre les deux étant en quelque sorte assurée par la qualité du modèle probabiliste déterminant la simulation. (Parzysz, 2009b, p.93) Parzysz reprend le modèle pseudo-concret d’? (1999) et précise que c’est pour lui : une sorte d’abstraction et de simplification de la réalité perçue dans sa complexité, dans la mesure où certains choix sont faits pour ne retenir que ce qui semble pertinent de cette situation vis à vis du problème étudié. (Ibid, 2009a, p.95) Il considère un lancer de pièce où sont associées, sous certaines hypothèses, des productions d’un générateur aléatoire : à chaque nombre x fourni par la machine, on associe une issue pour la pièce. Par exemple si x < 0, 5, on associe «face» et sinon «pile». Cet exemple vient éclairer la correspondance entre expérience et simulation représentée par le schéma ternaire suivant : Nous reprendrons ultérieurement ce schéma (Fig.1.1) pour notre analyse a priori du problème au coeur de notre recherche, lui-même en lien avec la simulation. Il nous servira d’appui ensuite pour décrire le rôle de l’enseignant dans l’activation des liens entre les diverses expériences (1 et 2) et la notion de modèle. Notre quête d’explications concernant des freins potentiels autour de la simulation dans le travail des enseignants est aussi éclairée par un obstacle épistémologique indiqué par? (2011). Ce dernier soulève relativement au jeu de « Croix et pile », (Encyclopédie de d’Alembert) un obstacle autour des modèles probabilistes et de la simulation auquel les élèves pourraient être confrontés. Il propose des pistes de remédiation sans pour autant préciser ce qui est du ressort de l’enseignant. En effet, une procédure de comparaison de tableaux proposée nécessite en amont l’élaboration de simulations mais la répartition des rôles entre le travail de l’enseignant et celui des élèves est absente.
Selon Parzysz : « Les registres de représentation sont à même de jouer un rôle fondamental dans les espaces de travail comparable à celui des « figures » en géométrie ». (Parzysz, 2011, p.139) Il précise que cela pose les questions suivantes :
– celle de la traduction de la situation (concrète ou pseudo concrète) dans la théorie ;
– la double question du traitement (transformation au sein d’un registre donné) et de la conversion (passage d’un registre à un autre), (Duval, 1995) (Ibid, p.139).
Dans notre recherche, la place du registre des arbres sera à questionner autour de la simulation. Est-il complémentaire ou au contraire éloigne-t-il de l’approche fréquentiste ? Peut-être pourrait il jouer un rôle relatif dans la guidance vers un choix de modèle probabiliste. De plus, l’enseignant joue-t-il un rôle de régulateur dans l’usage des arbres autour de la simulation ? Enfin, Girard et Parzysz considèrent tous les deux l’aspect statistique d’étude de liens étroits entre l’objet initial d’une expérience et celui de la simulation, et le rapprochement fait par un modèle. Mais Parzysz ajoute l’aspect pragmatique de ce changement semblant, selon lui, apporter une aisance d’étude par sa rapidité ou son aspect moins complexe. Nous allons interroger ce point quant au rôle de l’enseignant sur l’impulsion et l’élaboration de la simulation dans une classe. Nous avons fait le choix de mener notre enquête en formation car ce cadre nous parait propice aux échanges et au dévoilement de pratiques ordinaires d’enseignants.

Au début du lycée

   Concernant le lycée, le document d’aménagement du programme de seconde de 2017 (MENLYC, 2017) présente une division de l’organisation du programme en quatre parties dont la troisième est « Statistiques et probabilités ». D’un point de vue formel, il est intéressant de noter l’introduction 1 de cette section. C’est via la notion d’échantillonnage qu’apparaissent des réalisations de simulations. Des commentaires de deux types y sont présents : ceux précisant des artefacts possibles (tableur, calculatrice) ou une entrée algorithmique, ainsi que l’objectif de développer un questionnement chez les élèves lors d’estimation d’une proportion inconnue p à partir d’un échantillon, ou encore la prise de décision à partir d’un échantillon. Il s’agit aussi de faire percevoir le sens de l’intervalle de fluctuation d’une fréquence au seuil de 95%. Ce tour d’horizon nécessite de prendre en compte le document Ressource Probabilités et Statistiques (MENLYC, 2009, p.7) qui accompagne le programme de seconde de 2009. La mention du choix préalable d’un modèle avant toute simulation est présente. En cela, ce document semble plus précis que celui d’accompagnement des programmes de 2008 pour le collège. Il donne comme premier exemple celui de la somme de deux dés afin d’éclairer l’enseignant sur une mise en oeuvre possible en classe permettant de confronter un modèle proposé et des données d’expériences. Si le contenu reste implicite sur la manière dont la simulation est menée en classe (qui l’élabore, qui l’utilise ?), il précise un des rôles possibles de la simulation comme ressort d’invalidation de modèles préalablement choisis. Les auteurs de ce document préconisent une invalidation du modèle mais n’indiquent pas clairement si elle est réalisée par l’enseignant lui-même.

Les travaux de Gaydier

    La thèse de Gaydier (2011) dont le titre est « Simulations informatiques d’expériences aléatoires et acquisition de notions de probabilités au lycée. », s’intéresse aussi à la simulation d’expériences aléatoires avec un objectif distinct. Elle établit un modèle pour décrire les liens entre simulation informatique et modélisation, avec une étape de pré-modélisation commune aux tâches de simulation et de modélisation probabiliste. Pour cela, elle analyse le travail de l’élève, et non celui de l’enseignant comme nous le ferons. Certains éléments de sa recherche éclairent cependant ce qui se joue dans la mise en place de simulations. L’auteur précise les liens entre expérience aléatoire, modélisations et simulations, et elle propose une modélisation de ceux-ci. Gaydier interroge ce qui est privilégié au lycée entre les approches laplacienne et fréquentiste et rappelle à cette occasion les deux courants (objectiviste et subjectiviste). Ces courants sont par ailleurs précisés par Nechache (2016) qui donne un éclairage épistémologique et didactique sur la probabilité (Ibid, pp.39-45). Gaydier pointe des difficultés didactiques, non pas des enseignants, mais des élèves comme le biais d’équiprobabilité ou celui de la représentativité avec la loi des grands nombres étendue aux petits nombres. Elle souligne que la question du nombre de simulations est souvent posée mais sans interroger son but. Les mesures des probabilités des événements décrétées vraies ou fausses, pour être vérifiées, sont aussi soumises à validation. Cette validation porte sur les choix de l’espace probabilisé : il y a confrontation entre les calculs et des résultats empiriques. La question : « Combien d’épreuves seraient nécessaires pour valider/invalider le choix ? » reste en théorie, hors de portée des élèves lycéens selon Gaydier. Elle note toutefois que : « la validation du modèle dépend du choix des axiomes locaux liés à l’expérience, et qu’elle ne se ferait pas par une démonstration mathématique sur la règle du modus ponens. Ceci impliquerait des réticences de la part d’enseignants qui contesteraient l’appartenance des probabilités via l’approche fréquentiste aux mathématiques. » (Ibid, p.84) Nous signalons que cette question a été plus largement traitée par Nechache(2016) qui a mené des travaux sur la question de la validation dans l’enseignement des probabilités au niveau secondaire. Son étude enrichit sur ce point les travaux de Gaydier. Concernant les documents curriculaires, Gaydier pointe aussi une définition circulaire de la simulation où la simulation d’une expérience aléatoire est confondue avec celle de la loi de probabilité associée. Elle rejoint en cela la critique de Girard(2004) suivante qui parle de « cercle didactique vicieux. » (Ibid, p.88) : (…) pour simuler une expérience en seconde, il faut avoir un modèle, c’est à dire une loi de probabilité que l’on introduira en première seulement. Gaydier indique que cette définition est contredite par la pratique : la simulation précède la détermination de la loi de probabilité. Dans les classes, les lois de probabilité seront alors définies par analogie avec les distributions de fréquences obtenues dans la simulation. (Girard, 2004, p.86) Ceci nous semble important à mentionner ici car le travail des enseignants sur la simulation peut être impacté par une opacité dans les rapports entre simulation et modèles dans les documents de référence à leur portée. Gaydier définit donc les contours de ce qu’elle appelle une simulation acceptable, c’est une autre expérience aléatoire que l’on peut réaliser (Ibid, p.109). Nous avons en commun avec Gaydier une même tâche de probabilité pouvant faire intervenir la simulation. Empruntant la Théorie Anthropologique du Didactique (Chevallard, 1999), Gaydier a réalisé une analyse initiale du problème du lièvre et de la tortue que nous partageons dans notre enquête. Au delà de ses apports sur la notion de simulation, certains des concepts qu’elle introduit nous aident à mieux appréhender dans un premier temps le travail des enseignants sur cette même tâche. Si notre cadre théorique est différent, nous avons pris appui sur ses travaux pour mener notre analyse épistémologique du problème du lièvre et de la tortue et décrire une mise en oeuvre attendue (chapitre 2, pp.48-61). Des expériences aléatoires élémentaires et composées Dans le cadre de l’enseignement secondaire, Gaydier énumère les trois définitions au programme de la Terminale (MENLYC, Terminale, 2000) sur la notion de modèle probabiliste, en incluant l’arbre de probabilité parmi ceux-ci, ce dont nous pourrons rediscuter. Elle explicite aussi ce qu’elle appelle des expériences aléatoires élémentaires, et précise comment elles peuvent être simulées informatiquement. Pour elle : une expérience aléatoire composée, est l’enchaînement d’au moins deux expériences aléatoires élémentaires, non nécessairement indépendantes. (Gaydier, 2011, p.149). Cette catégorisation est liée aux artefacts employés et à leur potentiel. Une autre définition sur laquelle repose ce qu’elle nomme l’étape de pré modélisation, est celle d’expériences aléatoires équivalentes . Quand les univers sont finis, ceci est réalisé si les expériences ont le même nombre d’issues et la même loi de probabilité associée à celles-ci (à l’ordre des probabilités des issues près). La simulation est aussi définie comme une expérience aléatoire équivalente à celle initiale et effective, pouvant être répétée et facilement mise en œuvre (tirage dans une urne ou ordinateur) et précise : (…) qu’elle est conçue pour fournir des résultats expérimentaux (on parlera de données empiriques) (Ibid, p.153) En ce sens, Gaydier rejoint la définition de Parzysz (2009). Un retour est effectué sur le problème du lièvre et de la tortue, pour illustrer la définition suivante : simuler, c’est construire une simulation de l’expérience. (Gaydier, 2011, p.153) La simulation construite (à l’aide d’un des programmes envisagés) ayant même modèle probabiliste (en terme d’expérience aléatoire) que celui de l’expérience initiale, c’est bien une simulation au sens défini ci-dessus et non au sens restrictif des programmes. Les hypothèses de modélisationNous rejoignons Gaydier pour qui la simulation et la modélisation sont les résultats des actions simuler et modéliser. Une simulation et un modèle probabiliste sont adossés à une ou plusieurs hypothèses qui détermineront l’élaboration d’un modèle probabiliste. (Ibid, p.156) Sa recherche oriente dans notre première question vers la recherche de la manière dont un enseignant envisage et gère les liens entre expérience aléatoire, modèle et simulation en classe. A propos des hypothèses de modélisation, Gaydier ajoute que celles-ci vont porter sur des expériences élémentaires qui composent l’expérience : elles déterminent la loi de probabilité de ces expériences élémentaires. Elles ne sont donc pas associées au modèle probabiliste attenant à l’expérience globale. Ce choix des hypothèses de modélisation précède la détermination du modèle probabiliste de l’expérience aléatoire, mais soutient aussi la construction d’une simulation. Plusieurs choix d’hypothèses de modélisation peuvent être faits pour une expérience aléatoire, mais le choix préalablement retenu va déterminer une unique loi de probabilité pour l’expérience globale. Simuler une expérience aléatoire globale revient donc à composer les simulations des expériences aléatoires élémentaires. Si Gaydier éclaire sur des choix sous-tendus à la simulation, rien n’est précisé concernant qui agit par rapport aux modèles probabilistes : sont-ils libres ou imposés, par qui ? Nous pouvons nous demander s’il n’y aurait pas une influence des artefacts embarqués pour la simulation dans ces choix ? Ce problème n’est pas soulevé par Gaydier qui impose le tableur dans son ingénierie didactique.

Conclusion et avancée sur la question des artefacts

    En conclusion, concernant la circulation dans l’ETMeff , l’avatar de l’étape B1,2 (mené par Blandine dans sa classe) met en lumière plusieurs itinéraires impactés par le logiciel lui-même, et non anticipés par le collectif de formateurs. Imposée indirectement par ce collectif, l’entrée par la programmation avec Scratch a éloigné beaucoup de groupes de la simulation. En créant un outil sémiotique de description du jeu permettant de résoudre le problème, les élèves n’ont pas ressenti la nécessité de répéter des courses. Si l’enseignant n’y prend garde, un potentiel effet « Jourdain » 14 (Brousseau, 1987) peut alors se produire autour de la simulation et les élèves peuvent s’éloigner de l’enjeu probabiliste de celle-ci. Les programmes ici réalisés sont à rapprocher des arbres, en ce qu’ils jouent ici un double rôle d’outil sémiotique et d’outil technologique, ce dernier pouvant produire des résultats. Cependant, comparativement à l’arbre, une fois réalisé, après relance, le programme fournit des résultats immédiats à condition de le lancer, tandis que l’arbre nécessite des traitements. Le ressort d’obtention de beaucoup de données via le programme réalisé n’a pas été perçu comme nécessaire dans une majorité de groupes sur le temps imparti. La phase de simulation s’est achevée pour beaucoup dès l’obtention du programme d’une seule course. Des relances du programme, si elles ont été réalisées par les élèves, étaient effectuées quasi exclusivement pour faire valider (ou invalider) par l’enseignant le bon fonctionnement du jeu ou en percevoir les erreurs. Elles n’ont pas été mises à profit d’une approche fréquentiste. Quant à ce constat, nous pouvons questionner la manière dont l’enseignant doit envisager les différentes fonctionnalités du logiciel Scratch, comme « stop tout » qui fait sortir du programme ou encore  » dire… pendant … secondes ». Il serait opportun d’interroger la pertinence de la présence de lutins liée aux confinements de la circulation du travail mathématique observé dans certains groupes (comme le groupe Gr4). Enfin, ce couple interroge sur la nature des liens entre l’Espace de Travail Algorithmique défini par Laval (2018) et l’ETM des probabilités, ainsi que le rôle de l’enseignant dans cette relation au travers de ses interventions.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction générale
Ma question de recherche
Le suivi d’une trajectoire
Organisation de la thèse
1 Simulation, recherche exploratoire et premières questions 
1.1 Une définition de la simulation d’expériences aléatoires
1.2 La place de la simulation dans les programmes de probabilités et statistiques 
1.2.1 Liens entre statistiques et probabilités
1.2.2 L’enseignement des probabilités
1.3 Bilan des recherches sur ce thème 
1.3.1 Les travaux de Gaydier
1.3.2 D’autres recherches sur la simulation
1.4 Le problème du lièvre et de la tortue
1.4.1 Une tâche emblématique
1.4.2 Le problème du lièvre et de la tortue et la recherche
1.5 Précision de mes questions 
1.5.1 Un état des lieux : la formation donnée au Havre
1.6 Conclusion 
2 Les questions de recherche, le cadre et la méthodologie de recherche 
2.1 Introduction : plan et objectifs de ce chapitre
2.2 Description du cadre théorique
2.2.1 La théorie des Espaces de Travail Mathématique
2.2.2 Le cycle de modélisation de Blum et Leiss
2.3 Précisions sur nos questions de recherche
2.3.1 Retour sur notre question initiale de recherche
2.3.2 Expérience aléatoire, simulation et modèles mathématiques
2.3.3 Artefacts et simulation
2.3.4 Simulation et preuve
2.3.5 Conclusion sur nos questions de recherche
2.4 Outils méthodologiques pour l’étude d’une tâche emblématique
2.4.1 Présentation du problème du lièvre et de la tortue
2.4.2 Grille et éléments d’analyse épistémologique de la tâche
2.4.3 Itinéraire cognitif de la tâche dans les ETM
2.4.4 Description d’un ETM idoine attendu
2.4.5 Synergie didactique potentielle autour du travail de groupe
2.5 La méthodologie générale de recherche 
2.5.1 La notion d’avatar
2.5.2 La trajectoire d’un problème
2.6 Les études prévues sur les différents couples 
2.6.1 Avant la formation : précision de l’ETM idoine suggéré en formation (B1)
2.6.2 Pendant la formation : itinéraires et circulations (B2)
2.6.3 Après la formation : itinéraires et circulations (B3)
2.7 Eléments de contexte de la formation
2.7.1 Précisions sur les acteurs dans la formation (B2)
2.7.2 Le calendrier de la formation
2.7.3 Une dynamique de travail collectif-individuel des stagiaires en formation
2.7.4 Des précisions sur notre méthodologie
2.8 Conclusion 
3 Première boucle (B1) : étude de l’ETM idoine suggéré en formation 
3.1 Introduction : plan et objectifs de ce chapitre
3.2 Présentation de la première boucle
3.2.1 Situation d’avatars
3.2.2 Eléments de contexte
3.3 Eléments de méthodologie complémentaires, spécifiques à la première boucle 
3.3.1 Les analyses prévues à l’étape 1 de la première boucle
3.3.2 Le modèle des MTSK
3.3.3 Le cycle de modélisation de Blum et Leiss
3.3.4 Blocages, rebonds et confinements dans l’ETM
3.4 Données étudiées concernant la boucle avant la formation (B1)
3.5 Le premier couple de l’étape B1,1 : caractérisation et rôle 
3.5.1 L’avatar de Lucie, étape B1,1
3.5.2 Données concernant l’étape B1,1 de Lucie
3.5.3 Description de la mise en oeuvre par Lucie
3.5.4 Apports des circulations étudiées des groupes
3.6 Le deuxième couple du collectif de formateurs (B1,2) 
3.6.1 Genèse d’un avatar pour la formation
3.6.2 Réflexions des formateurs sur l’étape B1,1
3.6.3 Conclusion des formateurs : naissance du couple de l’étape B1,2
3.6.4 Description du couple de B1,2
3.6.5 Eléments retenus par le collectif, pour la formation
3.6.6 Grilles : indices des ETMpersonnel des formateurs
3.7 Conclusion 
3.7.1 Premiers résultats sur nos questions de recherche
3.7.2 Conclusion sur les itinéraires cognitifs et la circulation de l’étape 1
3.7.3 Les contours de l’ETM idoine suggéré en formation
3.7.4 Un deuxième point sur nos questions de recherche
3.7.5 Perspectives de recherche
4 Deuxième boucle (B2) : la formation 
4.1 Introduction : plan et objectifs de ce chapitre
4.2 Eléments méthodologiques spécifiques de la deuxième boucle
4.2.1 Etapes 1 et 2 de la formation : articulation avec la boucle B1
4.2.2 Etape 3 de la formation : description
4.2.3 Spécificité de certains stagiaires
4.3 Les analyses prévues sur la formation (B2) 
4.3.1 Sur la préparation collective du scénario (B2,1)
4.3.2 Sur la mise en oeuvre du scénario par un enseignant expérimentateur (B2,2)
4.3.3 Sur l’analyse collective a posteriori du scénario (B2,3)
4.4 Description de l’atelier Souris
4.4.1 La préparation collective du scénario (B2,1)
4.4.2 La mise en oeuvre du scénario en formation (B2,2)
4.4.3 Apports des circulations étudiées (B2,2)
4.4.4 Analyse collective du scénario de formation (B2,3)
4.4.5 Alternatives au scénario vécu en formation (B2,3)
4.5 Description de l’atelier Poussins
4.5.1 La préparation collective du scénario (B2,1)
4.5.2 La mise en oeuvre du scénario en formation (B2,2)
4.5.3 Apports des circulations étudiées (B2,2)
4.5.4 Analyse collective du scénario de formation (B2,3)
4.5.5 Alternatives au scénario vécu en formation (B2,3)
4.6 Evolutions observées en formation
4.6.1 Le cas des Souris
4.6.2 Le cas des Poussins
4.6.3 Dénaturation simplificatrice
4.7 Conclusion de la deuxième boucle
4.7.1 Expérience aléatoire, modèle et simulation (QR1)
4.7.2 Artefacts numériques et simulation (QR2)
4.7.3 Simulation et preuve (QR3)
4.7.4 Le travail en groupe, quelle pertinence ?
4.7.5 Perspectives de questionnement
5 Premiers effets de la formation : troisième boucle (B3) 
5.1 Introduction : plan et objectifs de ce chapitre
5.2 Eléments méthodologiques spécifiques d’après formation (B3)
5.2.1 Une troisième journée de formation
5.2.2 Les analyses prévues sur la boucle B3
5.3 Absences d’avatars chez des stagiaires 
5.3.1 Parmi les stagiaires Poussins
5.3.2 Parmi les stagiaires Souris
5.3.3 Conclusion pour les deux ateliers
5.3.4 Le cas de Malo : une tentative échouée
5.4 Le cas de Mattéo : un avatar repris de la formation 
5.4.1 Couples étudiés de la boucle B3 (étape 1)
5.4.2 Données concernant l’étape 1 de Mattéo
5.4.3 Caractérisation du travail de Mattéo
5.4.4 Conclusion (Mattéo)
5.5 Le cas de Christian : un avatar recomposé issu de la formation
5.5.1 Données concernant l’étape 1 de Christian
5.5.2 Caractérisation du travail de Christian
5.5.3 Conclusion (Christian)
5.6 Conclusion sur des effets de l’ETM suggéré
5.6.1 Mise en perspective
5.6.2 Les types de transformations opérées
5.6.3 Conclusion
Conclusion générale
Originalité de nos travaux et apports théoriques
Synthèse des résultats
Limites de notre recherche
Prolongements et perspectives
Bibliographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *