Les problématiques liées à la conception de l’évaluation sommative

Une évaluation qui fait obstacle aux apprentissages

Nous venons de voir que l’effet évaluation provoquait des effets à la conséquence paradoxale : le professeur n’évalue plus les compétences et connaissances des élèves mais les effets de l’évaluation elle-même ! Pour autant, cela resterait un problème raisonnable s’il ne s’accompagnait d’un autre corollaire, qui est de faire obstacles aux apprentissages eux-mêmes.
Comme le fait remarquer Gérard de Vecchi, la très grande majorité des témoignages d’adultes sur leur vie d’élèves porte sur des appréciations négatives liées certes à l’attitude du professeur envers eux, mais aussi évaluations diverses qui ont jalonné leur parcours.
Génératrices de stress, elles pouvaient mener les élèves à développer une anxiété envahissante, dépassant largement le seul moment de l’évaluation proprement dite.
En fait, il apparaît que l’impact des notes et des appréciations est fondamental pour l’élève : c’est uniquement à leur aune qu’il obtient un retour sur sa « valeur scolaire », c’est-à dire, finalement, sur sa valeur intrinsèque puisque la grande majorité du temps de vie d’un enfant s’organise autour de l’école. C’est là le sens global des appréciations de Hadji concernant l’évaluation sommative : d’un côté, la « valeur scolaire » est un critère sans pertinence, puisqu’il s’agirait d’une sorte de donnée renvoyant à l’essence de l’élève et que le contexte de classe, notamment l’évaluation, permettrait de mettre en lumière. Or, il montre bien que cette « valeur » est en fait le fruit du contexte ; pire, celui-ci la créé en en organisant les conditions d’existence.
De l’autre côté, il note que cette valeur, pure projection d’un cadre contextuel et des agents qui l’incarnent – les acteurs de l’éducation scolaire et en premier lieu le professeur des écoles – a tout de même un effet sur celui sur qui est plaquée cette projection. Comme il le dit : « on peut peser sur des performances simplement en désignant un élève comme bon ou mauvais, les sujets inscrivant leur conduite dans le système d’attente spécifiquement engendré. »
De Vecchi le note de son côté : « Les élèves se sentent sans cesse jugés en tant que personnes, même quand ce n’est pas l’intention du maitre qui ne veut juger que leur travail. Et, en même temps, l’enseignant doit amener chaque enfant et adolescent à avoir confiance en lui et à devenir autonome ! »
Il apparaît donc que l’aspect sommatif de l’évaluation à l’école, du fait qu’il émet un jugement de valeur sur l’élève en définissant sa plus ou moins bonne adéquation avec les attentes du système scolaire, a un impact sur l’image globale qu’il se fait de lui en tant que personne.
Dans le meilleur des cas, cela peut stimuler son ego et l’amener à vouloir reproduire indéfiniment des performances égales afin de maintenir son image dans la durée. Bien souvent, le constat, déjà discutable, est plus problématique puisqu’il installe durablement des failles narcissiques chez un individu encore très dépendant du regard de l’autre, failles qui vont potentiellement entraver sa réussite et son développement. A cet égard, certains témoignages sont édifiants : « quand les notes tombent, c’est comme si leur personne rétrécissait, et n’étaient plus vues qu’à travers ces chiffres rouges ou noirs écrits sur une copie. Et qui prennent souvent des proportions dramatiques. ».
Cette violence de l’évaluation , inhérente au système scolaire, ne doit pas être écartée si l’on veut pouvoir y pallier de façon efficace en vue de permettre une réelle « formation de la personne et du citoyen » . C’est ainsi que l’on peut comprendre Sylvain Connac lorsqu’il affirme que « si à la fin d’une année scolaire, un élève a – je ne dis pas grandi – mais au moins n’a pas diminué, alors on peut considérer qu’on a réussi notre travail. »
Enfin, et de façon peut-être moins dramatique, de Vecchi observe l’impact global de l’évaluation sommative sur la formation de l’élève. Il apparaît que les enfants comprennent très tôt l’importance donnée à l’évaluation et à la notation dans le système scolaire et s’y adaptent en conséquence. Ainsi, plutôt que de se concentrer sur l’apprentissage des connaissances et l’acquisition des compétences, le « métier d’élève » tourne-t-il bien souvent autour d’une question simple : comment avoir de bonnes notes aux évaluations ?
On voit d’emblée comme tout est faussé par ce glissement. L’école n’étant plus pensée que dans l’optique de « la préparation à la prochaine épreuve » , les élèves organisent l’ensemble de leurs apprentissages en fonction de cela. Il en découle que la mémorisation des leçons n’est effectuée que pour permettre la meilleure performance le jour J, souvent au détriment d’une maîtrise sur le long terme ; que le développement de stratégies de réussite prime sur la recherche de la maîtrise réelle ; et que l’évaluation, dont le travail est d’enregistrer le degré d’intégration des savoirs et savoir-faire, produit une distorsion de l’ensemble du système dont elle se veut le témoin. Or, et comme le rappelle à toutes fins utiles de Vecchi : « la finalité de l’école devrait être d’apprendre. » Il importe donc de replacer la question de l’apprentissage au centre des pratiques et de réfléchir aux moyens de mettre l’évaluation au service de l’acquisition des savoirs, plutôt que ceux-ci soient au service de l’évaluation. Comme le note Gagneux, « l’examen ne doit pas perturber, au point de paralyser les apprentissages… qui seront nécessaires à sa réussite ! »

L’évaluation sommative : un maillon d’une chaine beaucoup plus large

A cet égard, un autre rappel de Gagneux est intéressant. Il réaffirme en effet qu’ « avant d’être celui qui opère un bilan sommatif à des fins de certification sociale, l’enseignant est celui qui évalue quotidiennement les prestations et produits de ses élèves pour mieux accompagner les progressions. »
Or, c’est un point important : au-delà de la question des notes, qui servent avant tout à remplir les livrets à l’heure et à rendre compte aux parents du travail fait en classe, il est important de se demander à quoi nous sert réellement l’évaluation sommative. Si on la considère comme l’une des formes particulières du processus global d’évaluation qui est la tâche du professeur, alors une esquisse de réponse apparaît.
Hadji note en effet que l’évaluation est une activité qui prend son sens dans le cadre d’une dynamique de régulation. Or, « réguler signifie intervenir dans le déroulement d’un processus pour (…) le conduire vers un but. L’action enseignante relève de ce (…) cas : on veut accompagner l’élève vers la maîtrise de connaissances et de compétences. »
Il apparaît donc que l’évaluation sommative, qui enregistre précisément si le but a été atteint, est un point nodal du processus d’apprentissage, puisqu’elle permet de prendre acte de la réussite de l’enseignement et d’ouvrir vers des pistes de remédiation adaptées. Comme l’indique la circulaire de 2014, « L’évaluation (…) est au service des apprentissages et doit permettre à chaque élève de progresser par une connaissance objective de ses acquis et aux professeurs de mieux adapter les aides et les approfondissements aux besoins constatés. »
Autrement dit, si on considère le processus d’évaluation comme la somme des divers types d’évaluations menées au sein de la classe, l’évaluation sommative n’est pas la finalité d’un apprentissage mais une étape en vue d’un développement au long cours, adapté aux besoins et aux difficultés détectés. C’est donc, avant même d’être un outil de classement des élèves, un outil indicateur pour le professeur.
Comme le remarque de Vecchi, s’échapper du temps T est de plus un moyen de mieux apprécier le degré d’acquisition réel d’une compétence. Il prend en effet note d’un écueil récurrent, dont ma pratique et les discussions que j’ai eues confirment le caractère répétitif. Il arrive souvent que des élèves parviennent à réussir parfaitement des exercices précis pour lesquels ils ont été formatés, mais soient incapables de réutiliser les compétences et connaissances impliquées dans un autre contexte. C’est ici la question du transfert qui se pose.
D’après le chercheur, transférer consiste précisément à « savoir réutiliser la compétence sans la réintervention du professeur » , ce qui correspond à la meilleure définition possible d’une compétence acquise. Or, cela ne peut être vérifié lors de l’évaluation sommative, qui cible la capacité à restituer des compétences et connaissances dans un contexte ciblé – exercices déjà vus, révisions la veille en vue de réussir, le tout à la sortie d’un apprentissage de plusieurs jours…
Ce n’est donc qu’une fois l’évaluation sommative réussie et terminée que le moment sommatif « réel » peut avoir lieu ; ce n’est que là que le professeur, au fil de l’année, peut apprécier la capacité des élèves à réinvestir les compétences et connaissances acquises dans divers contextes où elles sont requises, sans qu’il ait à guider leur attention vers elles.
Il apparait enfin que replacer l’évaluation sommative dans le contexte plus large de l’activité évaluative globale du professeur des écoles, activité qui est le fondement de sa pratique puisqu’elle permet de réguler en permanence son enseignement en vue de permettre les apprentissages, est un acte beaucoup plus logique et juste que de la considérer comme un objet autonome à la durée de vie limitée. En effet, il arrive fréquemment que les élèves ne comprennent certains points que lors de la correction des évaluations, voire même, qu’ils ne les comprennent que bien plus tard dans l’année ! Dès lors la question d’un moment T comme seul moment sommatif sur une notion se pose : est-il juste de remplir le LSU avec des données qui ne sont peut-être plus vraies au moment où le professeur les communique, mais dont la transmission va avoir un impact effectif sur la façon dont l’élève est perçu par ses parents, l’institution scolaire, et in fine, lui-même ? Comme le note de Vecchi, c’est là l’un des écueils inacceptables de l’évaluation ponctuelle qu’elle ne laisse aucune chance à l’élève de se rattraper.
A l’inverse, replacé dans un temps plus long, le sommatif peut devenir une pratique au service de la validation des acquis par les élèves, à charge alors pour le professeur d’observer finement le moment où il lui paraîtra le plus indiqué de soumettre une nouvelle évaluation à ceux qui semblent pouvoir la réussir. A charge aussi pour lui, évidemment, de donner à cette évaluation la forme la plus adéquate, au vu de ce qui a été dit dans toute cette partie.
C’est cette question de la forme qui va maintenant faire l’objet d’un compte rendu analytique. Dans la partie qui suit, je proposerai un retour d’expérience permettant d’apprécier l’évolution de mes pratiques sommatives durant l’année. Puisqu’il est dit qu ’on n’apprend bien que par l’expérience, et qu’une vraie chute veut mieux que dix schémas pour apprendre à marcher, la première partie sera consacrée au compte-rendu d’une évaluation qui m’a été très instructive par les erreurs qu’elle comporte. Je me pencherai ensuite sur les différentes façons dont mes copies de « contrôles » ont évolué à la suite de cette expérience. Enfin, je rendrai compte des diverses pratiques que j’ai mises en place et qui entouraient l’évaluation sommative proprement dite, en vue de pallier ses divers effets structurels.

Les problématiques liées à la conception de l’évaluation sommative

L’exemple sur lequel je vais me pencher maintenant a été fondamental dans l’évolution de ma réflexion, en ceci qu’il m’a mis aux prises directes avec presque tous les écueils que l’on peut rencontrer lorsqu’on conçoit une évaluation sommative. Il illustre de façon claire, à mon sens, la difficulté que peut avoir un débutant à évaluer des compétences dans une matière faisant intervenir des savoirs purs.

Le contexte

Durant la période 2, j’ai longuement travaillé sur les gaulois en histoire. La séquence, transdisciplinaire, a été conçue en vue de permettre la construction de compétences précises. Il s’agissait pour les élèves d’apprendre à construire leurs savoirs par eux-mêmes en développant une méthode d’étude de documents. Cette méthode était basée sur l’observation fine, permettant l’émission d’hypothèses en vue de répondre à une question. Je leur ai par exemples demandé en début de séquence de me donner leurs croyances concernant le mode de vie des gaulois en répondant aux questions : « où vivaient-ils ? » et « comment se nourrissaient-ils ?». Après avoir noté leurs réponses initiales au tableau, je leur ai demandé de travailler sur des fiches de recherche (annexe n°1).
Leur travail était le suivant : réunis par binômes, les élèves devaient observer attentivement les photographies présentées et noter dans la grille toutes les informations qu’ils tiraient de cette observation. Après l’avoir remplie, je leur demandais de répondre à nouveaux aux questions initiales – « où vivaient-ils » et « comment se nourrissaient-ils » – au moyen d’une phrase. L’idée était de les amener à mettre en lien les différentes informations prélevées afin de tirer une conclusion générale de leurs observations. Ils allaient ensuite accrocher leur fiche d’activité au tableau, en vue d’un temps de mutualisation orale durant lequel les différents groupes ont pu dialoguer autour de leurs observations et de leurs conclusions. Après discussion, les élèves en sont arrivés à formuler une conclusion collective que j’ai transcrite au tableau (« Les Gaulois vivent dans des fermes, ce sont des agriculteurs »). J’ai ensuite impulsé un court débat autour de la question des habitations (« vous me dites d’après la fiche 1 que les Gaulois vivent dans des fermes mais aussi dans des villes d’après la fiche 2 ; qu’en est-il ?) afin de susciter la réflexion et l’émission d’hypothèses, ce qui m’a permis d’introduire les savoirs dont ils ne pouvaient disposer – concernant les vicus et les oppidums. La dernière phase était un moment d’institutionnalisation durant lequel les élèves étaient invités à reformuler ce qu’ils avaient fait et appris, aussi bien en termes de méthode qu’en termes de savoirs. La leçon, que je leur ai distribuée le lendemain, réunissait les différentes images sur lesquelles i ls avaient travaillé ainsi que la leçon finale conçue en commun. Je leur ai également donné à chacun un exemplaire photocopié de leurs feuilles de recherche afin de garder une trace mémorielle du travail effectué.
Par cette pratique, j’essayais de les mettre au plus près des méthodes de travail de l’historien et de l’archéologue, qui tirent leur savoir de l’interrogation systématique des sources primaires à leur disposition. L’idée était de leur faire adopter une posture active les poussant à construire eux-mêmes leur savoir, et ce grâce à l’intégration d’une méthodologie mettant en jeu l’analyse des données relevées ; il s’agissait également de les laisser se confronter aux limites de cette méthodologie et aux questions qu’elle soulève.
Le déroulement que je viens de décrire a servi de modèle pour les trois premières séances. Les deux dernières, quant à elles, ont porté sur la question de la source : l’objectif était de pousser un peu plus loin la méthode d’analyse de documents en y intégrant un questionnement sur sa provenance. Les élèves ont appris d’une part à identifier la source d’un document en se référant à sa légende, d’autre part à s’interroger sur sa pertinence historique au vu de cette identification (cf annexe n°2, qui présente un exercice mené dans ce cadre).
Toute la séquence portait donc sur des compétences liées à l’analyse de documents. Ces compétences étaient tirées des programmes : il s’agissait pour les élèves de « formuler des hypothèses », « se poser des questions », « identifier un document et comprendre pourquoi il doit être identifié », « extraire des informations pertinentes pour répondre à une question » et, les élèves travaillant par binômes, «travailler en commun pour faciliter les apprentissages individuels ».
Ces compétences étant réellement CE QUE les élèves apprenaient à maîtriser, mon évaluation aurait naturellement dû porter dessus. Or, au final, les exemples que j’ai trouvés dans les manuels et sur internet, mais également mon expérience, m’ont poussé à me focaliser sur les contenus, et j’ai produit une évaluation qui m’a posé de nombreux problèmes à la correction. Je renvoie ici le lecteur à l’annexe n°3 qui donne à voir un exemplaire de cette évaluation : il s’agit d’un document pivot pour aborder la suite de ce mémoire.

Analyse

Une évaluation non congruente

La première chose qui m’a frappé lors de la correction est la disjonction entre l’objet d’apprentissage initial et les points effectivement évalués. Alors même que l’intégralité de ma séquence portait sur les compétences suscitées et faisait preuve d’une certaine cohérence à cet égard, les questions que je propose manquent cruellement de congruence avec ces compétences.
Il apparaît ainsi que la méthode d’analyse travaillée durant les trois premières séances ne fait l’objet d’aucune évaluation, sous quelque forme que ce soit. Quant à la méthode d’analyse des sources, objet de la seconde phase de ma séquence, elle est bien reprise… dans la question bonus ! Ce qui revient à dire que j’ai travaillé d’arrache-pied pour faire intégrer des compétences très précises, le tout au travers de deux méthodologies d’analyse ciblées… et que j’a i balayé tout cela au moment de l’évaluation, comme si ma séquence n’avait servi à rien. Sur quoi porte donc effectivement mon évaluation ? Si l’on regarde les différents types de questions, il apparaît que je ne suis en train de me concentrer que sur la vérification de l’apprentissage des différentes leçons. Autrement dit, tout se passe comme si les séances n’avaient été qu’une façon plus ou moins folklorique d’amener aux connaissances qu’elles permettaient de faire émerger, connaissances qui auraient été l’unique objet de mon enseignement.
Pourquoi ai-je agi ainsi ? En début d’année de PES, on avance beaucoup au jugé, parfois presque « à l’aveugle ». On est peu sûr de sa légitimité et, surtout, nous manquons de repères. Il s’agit de trouver des modèles afin de pouvoir construire une normativité à laquelle se référer lorsqu’on voudra concevoir une « bonne » évaluation. Je me suis donc inspiré de manuels, de recherches internet et d’évaluations diverses déjà existantes pour concevoir une évaluation qui fasse « professeur ». Le problème est que, ce faisant, j’en suis arrivé précisément à évaluer la seule chose que nous n’avions pas travaillée en classe : l’apprentissage de la leçon par l’élève lui même. Lorsque j’agis de la sorte, il est évident que je ne suis pas en train de mettre en œuvre une évaluation bienveillante, permettant à l’élève d’apprécier l’intégration des compétences travaillées et me permettant à moi de voir dans quelle mesure mon enseignement a été adapté aux élèves. Bien au contraire, je tombe dans l’écueil d’une évaluation-sanction, qui ne peut que reproduire mécaniquement les inégalités : mon évaluation valide et sanctionne un état de fait dans le rapport à l’apprentissage par cœur, sans y apporter la moindre modification. De plus, elle créé une congruence artificielle entre cette validation et le fait d’avoir « compris la leçon », puisqu’elle clôt la séquence ; les élèves obtenant un retour négatif à cette épreuve se retrouvent donc avec un constat d’échec alors même qu’ils peuvent avoir travaillé et compris les notions enseignées. Or, nous avons vu avec de Vecchi l’importance que ce constat avait sur l’image de l’élève et sa motivation : en agissant de la sorte, je n’évalue pas – mes enseignements – mais je classe – mes élèves. Bien plus grave, je mets en place une dynamique d’échec chez les élèves que je classe mal, comme cela a été montré en partieI !
A la lumière de ce problème, il m’est donc apparu clairement une chose simple : la première question à se poser lorsque l’on conçoit une séquence, quel que soit le champ disciplinaire concerné, est celle de l’évaluation. Qu’est-ce que j’évalue en fin de séquence ? Cette question doit être en congruence totale avec une autre : Quel est mon objectif en termes d’apprentissages ? Il ne s’agit pas tant d’un débat entre évaluation par compétences et évaluation sur l’acquisition des savoirs en soi mais bien de se demander ce qui a été le but de notre enseignement durant la séquence. L’évaluation ne se fabrique pas au jugé, n’a pas pour but de ressembler à une « bonne évaluation ». En fait, elle n’a pas pour but de ressembler à quoi que ce soit. La forme qu’elle prend doit tout simplement être la plus adéquate possible en vue d’une évaluation objective et bienveillante, permettant l’enregistrement des réelles capacités des élèves. Le deuxième point est qu’elle doit être conçue pratiquement en même temps que la fiche de séquence ; du moins l’évaluateur doit-il avoir clairement en tête ce qu’il évaluera. Ces deux conclusions, qui paraîtront sans doute évidentes à tout professeur expérimenté, sont absolument fondamentales à prendre en compte si l’on veut que nos évaluations soient réellement des outils au service de l’élève et non des moyens avérés de cristallisation des inégalités. Je montrerai plus bas comment j’ai pris acte de ces faits dans la construction de mes évaluations suivantes.

Aux prises avec la correction : découverte de ce que j’évalue effectivement et de l’inégalité de traitement entre les compétences évaluées

Les considérations ci-dessus sont nées des problèmes que j’ai rencontrés lorsqu’est venu le moment de la correction. Si les questions que je posais dans l’évaluation avaient fait l’objet d’une réflexion – globalement, le but final était de traverser l’ensemble des leçons, de couvrir tous les points importants –, la façon dont je devais les corriger était resté dans l’angle mort de ma conscience. Avançant au jugé, je n’avais pas encore réalisé les difficultés qui allaient m’être posées. J’avais certes eu plusieurs fois, durant la période 1, à réfléchir longuement sur la façon d’organiser mon barème au moment de corriger les copies – ce qui occasionnait des après-midi pour le moins laborieuses. La difficulté attint cependant ici un point tel, que la nécessité d’une scission avec les méthodes qui avaient été les miennes jusqu’à présent devint évidente.
Face aux copies, je me suis retrouvé aux prises avec une question très concrète : quelle importance donner à chaque réponse dans son rapport à la « note » finale, c’est-à-dire à l’appréciation générale ? (j’utilisais encore à l’époque les ab, b, tb). Autrement dit, et étant attendu que je ne comptais pas mettre en place une note sur 20 dont nous avons vu l’inanité dans la partie 1, il s’agissait de trouver une façon d’organiser mon système de validation des acquis à partir des questions posées dans l’évaluation. Or, je ne m’étais pas posé en amont la question de la nature des acquis à évaluer, puisque j’avais, comme je l’ai dit, créé mon évaluation d’après un seul principe : vérifier la mémorisation des différentes informations contenues dans la leçon. Me voilà donc, a posteriori, en train d’analyser mon évaluation pour y identifier ce que j’évalue effectivement ! Il apparaît vite que trois pôles de compétences sont mis en jeu dans cette épreuve.

Cas précis de correction : la question de la justice scolaire

Je vais maintenant me pencher sur une copie en particulier : il s’agit de Benjamin, plutôt situé dans la moyenne haute de la classe. Son cas va me servir d’exemple car il illustre bien les problèmes que j’ai rencontrés en corrigeant.
Benjamin a bon à la première partie de la question 1, ou il faut replacer du vocabulaire sur un schéma. Il ne répond cependant pas à la deuxième partie de la question, qui demande une action cognitive différente (restitution d’un fait appris). Comment évaluer cette question dans ce cas là ? Je ne peux pas le sanctionner alors qu’une partie de l’exercice est juste ; pour autant, le fait qu’il ait faux à la question finale m’empêche de valider entièrement la mémorisation du vocabulaire. Je me retrouve dans le cas d’une disjonction avérée entre ce que je veux évaluer, à savoir l’apprentissage d’un partie précise de la leçon portant sur les vêtements des gaulois, et une logique « à points » qui s’impose à moi de facto, du fait que mon exercice est en deux parties faisant chacune intervenir une action cognitive différente. En d’autres termes, je me vois contraint de « mettre des points » tout en ne pouvant valider l’apprentissage, ce qui fait glisser mon évaluation d’une vérification des acquis vers un test de performance répondant à une logique quantitative. Même si ma copie n’est pas notée sur 20, l’ambiguïté est là. Je me rends compte que cet exercice me renvoie à une question fondamentale, que je ne me suis pas posée en amont : celle de l’objectif de mon évaluation. Qu’est-ce que je veux faire lorsque j’évalue ? Lié à cela, quelle logique, quel objectif président à la conception des exercices ? Ne sachant encore comment mener ma correction, je continue d’avancer dans la lecture de la copie, en gardant ces questions en tête.
Le second point problématique se présente au détour des questions 2 à 6 : il apparaît vite que Benjamin n’a pas appris sa leçon. Or, nous l’avons vu plus haut, mon devoir était très déséquilibré : la grande majorité des questions porte sur la restitution pure de connaissances, soit sur la vérification d’un seul fait. Ceci a pour conséquence l’apparition d’un biais de correction inévitable : à chaque nouvelle question à laquelle il répond mal, Benjamin m’apparait un peu plus comme « n’ayant pas fait d’effort », n’ayant « vraiment » rien appris… l’effet de surenchère dû à la répétition des réponses erronées peut mener à vouloir sanctionner au lieu d’évaluer – d’autant plus face à certaines réponses qui semblent témoigner d’une réelle désinvolture (« où vivent les Gaulois ? – Ils vivent en Amérique ») où lorsqu’il donne deux fois la même réponse à deux questions différentes dans l’idée que celle-ci doit être bonne dans l’un des deux cas. Or, il est bien évident que je ne peux pas me permettre de sanctionner un élève pour la nonacquisition d’un point d’évaluation (l’apprentissage de la leçon) dont il est de ma responsabilité d’avoir étendu l’évaluation à l’excès. Dès lors, que faire ?
J’ai fini par regrouper les questions en trois groupes, qui ne répondent pas totalement à une logique de séparation par pôles de compétences mais qui permettent de rééquilibrer vers une évaluation bienveillante, de se rapprocher des programmes par rapport à la version initiale, et de palier à mes erreurs de conception. Les élèves sont donc évalués sur trois items : « habillement », qui correspond à la question 1, « mode de vie », questions 2 à 6, et « analyse de documents », qui correspond à la question bonus, chacun d’eux évalué d’après la notation LSU (acquis, en cours d’acquisition, non acquis) et le tout synthétisé en une appréciation (ab, b, tb) accompagnée si besoin d’un commentaire. Cette répartition présente trois avantages pratiques : d’une part, cela permet de compenser l’effet de sanction qui naitrait sans cela du fait d’avoir faux aux questions de cours – puisqu’elles sont plus nombreuses que les autres – en les ramenant à un bloc d’évaluation sur trois. D’autre part, cela me permet de noter « acquis » à un élève pour le bloc « habillement » s’il a bon à la question 1.a) mais qu’il ne se rappelle pas du mot « fibule » : puisque je n’évalue pas ici une compétence précise mais selon une logique thématique, le fait de ne pas se rappeler d’un mot alors que l’on a bon à tout le reste n’est plus aussi pénalisant. A l’inverse, une logique de classement des questions en fonction de la compétence mise en jeu aurait été injuste pour les élèves ayant eu bon à la question 1.b) et faux, totalement ou en partie, à la question 1.a). Enfin, cela me permet de redonner une réelle importance à la question bonus puisqu’elle est la seule à être reliée à une compétence explicitement travaillée en cours.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
Partie 1 : L’évaluation, une violence ordinaire
1. La note, un outil d’une valeur discutable
a) Vers une notation objective : le caractère aléatoire de la note
b) La note n’est pas l’évaluation
2. Pour une évaluation réellement informative
a) Les biais de notation
b) L’effet évaluation
c) Un outil limité
3. … et formative !
a) Une évaluation qui fait obstacle aux apprentissages
b) L’évaluation sommative : un maillon d’une chaine beaucoup plus large
Partie 2 : De l’évaluation « au jugé » à la conception d’évaluations sommative pertinentes : compte-rendu d’une année de travail
I. Les problématiques liées à la conception de l’évaluation sommative
1. Le contexte
2. Analyse
a) Une évaluation non congruente
b) Aux prises avec la correction : découverte de ce que j’évalue effectivement et de l’inégalité de traitement entre les compétences évaluées
c) Cas précis de correction : la question de la justice scolaire
d) Bilan
II. Les problématiques liées à la conception de l’évaluation sommative
1. Limites et points morts des observables
2. La grille de compétences : un outil holistique
a) Permettre une évaluation réellement congruente
b) La notation revisitée
c) Une communication de qualité
3. Pallier l’effet évaluation
Conclusion

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *