Pour une évaluation réellement informative
Les biais d’évaluation
Imaginons un instant une évaluation sommative parfaitement réalisée. Les exercices, équilibrés avec attention et expertise, renvoient chacun à des notions précises. Sans être trop simples ni traîtres, ils forment des indicateurs clairs qui permettent d’apprécier l’acquisition globale de compétences et de connaissances ciblées. Le barème, explicité, sépare chacune d’elle dans un tableau à la fois précis et bien organisé, pour éviter une note globale ne donnant aucune information. Il n’en reste pas moins que cette évaluation va être corrigée par un professeur, c’est-à-dire, par un être humain, traversé par des émotions, fruit de conceptions diverses et contradictoires, animal social, sujet à la subjectivité et aux sautes d’humeur, bref, tout ce qu’il y a de moins « objectif ». Or, toutes les études montrent que les professeurs sont influencés par divers biais qui viennent contrarier la juste notation : il ne suffit donc pas que l’évaluation-objet soit bien conçue mais encore de prendre conscience de certains effets pervers inévitables.
Le CAIRN montre par exemple que les stéréotypes scolaires et sociaux jouent un grand rôle dans l’appréciation d’une copie : les élèves issus d’un milieu socio-économique plus élevé ont tendance à être mieux notés ; de même un « bon » élève sera surévalué par rapport à un élève « moyen », même si les réponses sont sensiblement les mêmes. Plus encore : un élève redoublant ou souvent en retard en cours aura tendance à récolter des notes plus mauvaises qu’un élève de l’âge « normal » ou « à l’heure » ; et un élève dont le comportement ne convient pas au professeur subira le même sort. En d’autres termes, les conceptions du correcteur sur son élève interviennent au moment de l’évaluation, même à un niveau inconscient. On parle pour cela d’effet « d’assimilation », car la performance de l’élève est évaluée en collusion avec un certains nombres de données extérieures qui jouent grandement sur la note. Il ne s’agit plus d’évaluer une performance, encore moins l’acquisition de compétences et connaissances, mais de statuer sur la « valeur globale » de l’élève telle que la perçoit le correcteur.
D’autres causes, purement techniques, interviennent également dans le processus.
Ainsi, l’ordre d’une copie dans le paquet viendra mécaniquement jouer sur son évaluation par le correcteur : les premières copies ont tendance à être surévaluées (sauf la première !) et les dernières du paquet plus sévèrement notées. L’effet de contraste est également inévitable : toute copie vient après ou avant une autre ; ainsi, une « bonne » copie sera globalement surévaluée après une « mauvaise » et inversement. Enfin, le simple fait que la correction soit un processus temporel intervient dans l’équation : une erreur du même type a tendance à être plus sévèrement notée dans la première partie de la copie que dans la seconde, du fait que le correcteur n’a pas les mêmes attentes au début d’une copie qu’au fur et à mesure qu’il la parcourt effectivement et prend acte de ce qui s’y trouve ; d’une certaine façon, il opère un rééquilibrage entre ses attentes et la réalité des réponses données, ce qui montre bien que même des critères extrêmement objectifs de notation évoluent au contact effectif des objets à noter.
L’effet évaluation
Un deuxième point très important à noter est que l’évaluation en elle-même n’est pas neutre. Malgré les témoignages de professeurs pour qui l’échec n’a aucun impact sur la motivation générale de l’élève , l’impact psychologique de l’évaluation sommative apparaît comme déterminant pour la majorité des élèves.
D’une part, le simple fait qu’il s’agisse d’un moment particulier de vérification, hors de la continuité temporelle « normale » de la classe, a un impact sur la qualité des réponses apportées : les élèves, stressés, peuvent voir leurs performances fortement impactées par la confrontation avec la copie et avec l’image qu’ils se font de leurs propres capacités. Bien au contraire, certains peuvent parvenir à faire illusion sur leur maîtrise réelle en répondant correctement par hasard ou en s’appuyant sur des compétences qui ne sont pas celles visées par l’exercice. Comme le note Hadji : « Dans un examen ou un concours, on n’évalue pas seulement les connaissances, mais aussi la gestion de la tension nerveuse (stress), la stratégie (impasses, courses aux points), la chance… et même l’ingéniosité (tricher sans se faire prendre !). »
Ainsi, d’une façon ou d’une autre, l’évaluation sommative en « faisant événement » vient modifier les performances qu’elle est sensée enregistrer, parfois de façon très marquée.
… et formative !
Une évaluation qui fait obstacle aux apprentissages
Nous venons de voir que l’effet évaluation provoquait des effets à la conséquence paradoxale : le professeur n’évalue plus les compétences et connaissances des élèves mais les effets de l’évaluation elle-même ! Pour autant, cela resterait un problème raisonnable s’il ne s’accompagnait d’un autre corollaire, qui est de faire obstacles aux apprentissages eux-mêmes.
Comme le fait remarquer Gérard de Vecchi, la très grande majorité des témoignages d’adultes sur leur vie d’élèves porte sur des appréciations négatives liées certes à l’attitude du professeur envers eux, mais aussi évaluations diverses qui ont jalonné leur parcours.
Génératrices de stress, elles pouvaient mener les élèves à développer une anxiété envahissante, dépassant largement le seul moment de l’évaluation proprement dite.
En fait, il apparaît que l’impact des notes et des appréciations est fondamental pour l’élève : c’est uniquement à leur aune qu’il obtient un retour sur sa « valeur scolaire », c’est-àdire, finalement, sur sa valeur intrinsèque puisque la grande majorité du temps de vie d’un enfant s’organise autour de l’école. C’est là le sens global des appréciations de Hadji concernant l’évaluation sommative : d’un côté, la « valeur scolaire » est un critère sans pertinence, puisqu’il s’agirait d’une sorte de donnée renvoyant à l’essence de l’élève et que le contexte de classe, notamment l’évaluation, permettrait de mettre en lumière. Or, il montre bien que cette « valeur » est en fait le fruit du contexte ; pire, celui-ci la créé en en organisant les conditions d’existence.
De l’autre côté, il note que cette valeur, pure projection d’un cadre contextuel et des agents qui l’incarnent – les acteurs de l’éducation scolaire et en premier lieu le professeur des écoles – a tout de même un effet sur celui sur qui est plaquée cette projection . Comme il le dit : « on peut peser sur des performances simplement en désignant un élève comme bon ou mauvais, les sujets inscrivant leur conduite dans le système d’attente spécifiquement engendré. »
De Vecchi le note de son côté : « Les élèves se sentent sans cesse jugés en tant que personnes, même quand ce n’est pas l’intention du maitre qui ne veut juger que leur travail. Et, en même temps, l’enseignant doit amener chaque enfant et adolescent à avoir confiance en lui et à devenir autonome ! »
Il apparait donc que l’aspect sommatif de l’évaluation à l’école, du fait qu’il émet un jugement de valeur sur l’élève en définissant sa plus ou moins bonne adéquation avec les attentes du système scolaire, a un impact sur l’image globale qu’il se fait de lui en tant que personne.
L’évaluation sommative : un maillon d’une chaîne beaucoup plus large
A cet égard, un autre rappel de Gagneux est intéressant. Il réaffirme en effet qu’ « avant d’être celui qui opère un bilan sommatif à des fins de certification sociale, l’enseignant est celui qui évalue quotidiennement les prestations et produits de ses élèves pour mieux accompagner les progressions. »
Or, c’est un point important : au-delà de la question des notes, qui servent avant tout à remplir les livrets à l’heure et à rendre compte aux parents du travail fait en classe, il est important de se demander à quoi nous sert réellement l’évaluation sommative. Si on la considère comme l’une des formes particulières du processus global d’évaluation qui est la tâche du professeur, alors une esquisse de réponse apparaît.
Hadji note en effet que l’évaluation est une activité qui prend son sens dans le cadre d’une dynamique de régulation. Or, « réguler signifie intervenir dans le déroulement d’un processus pour (…) le conduire vers un but. L’action enseignante relève de ce (…) cas : on veut accompagner l’élève vers la maîtrise de connaissances et de compétences. »
Il apparaît donc que l’évaluation sommative, qui enregistre précisément si le but a été atteint, est un point nodal du processus d’apprentissage, puisqu’elle permet de prendre acte de la réussite de l’enseignement et d’ouvrir vers des pistes de remédiation adaptées. Comme l’indique la circulaire de 2014, « L’évaluation (…) est au service des apprentissages et doit permettre à chaque élève de progresser par une connaissance objective de ses acquis et aux professeurs de mieux adapter les aides et les approfondissements aux besoins constatés. »
Autrement dit, si on considère le processus d’évaluation comme la somme des divers types d’évaluations menées au sein de la classe, l’évaluation sommative n’est pas la finalité d’un apprentissage mais une étape en vue d’un développement au long cours, adapté aux besoins et aux difficultés détectés. C’est donc, avant même d’être un outil de classement des élèves, un outil indicateur pour le professeur.
Comme le remarque de Vecchi, s’échapper du temps T est de plus un moyen de mieux apprécier le degré d’acquisition réel d’une compétence. Il prend en effet note d’un écueil récurrent, dont ma pratique et les discussions que j’ai eues confirment le caractère répétitif. Il arrive souvent que des élèves parviennent à réussir parfaitement des exercices précis pour lesquels ils ont été formatés, mais soient incapables de réutiliser les compétences et connaissances impliquées dans un autre contexte. C’est ici la question du transfert qui se pose.
D’après le chercheur, transférer consiste précisément à « savoir réutiliser la compétence sans la réintervention du professeur » , ce qui correspond à la meilleure définition possible d’une compétence acquise. Or, cela ne peut être vérifié lors de l’évaluation sommative, qui cible la capacité à restituer des compétences et connaissances dans un contexte ciblé – exercices déjà vus, révisions la veille en vue de réussir, le tout à la sortie d’un apprentissage de plusieurs jours…
Ce n’est donc qu’une fois l’évaluation sommative réussie et terminée que le moment sommatif « réel » peut avoir lieu ; ce n’est que là que le professeur, au fil de l’année, peut apprécier la capacité des élèves à réinvestir les compétences et connaissances acquises dans divers contextes où elles sont requises, sans qu’il ait à guider leur attention vers elles.
Il apparait enfin que replacer l’évaluation sommative dans le contexte plus large de l’activité évaluative globale du professeur des écoles, activité qui est le fondement de sa pratique puisqu’elle permet de réguler en permanence son enseignement en vue de permettre les apprentissages, est un acte beaucoup plus logique et juste que de la considérer comme un objet autonome à la durée de vie limitée. En effet, il arrive fréquemment que les élèves ne comprennent certains points que lors de la correction des évaluations, voire même, qu’ils ne les comprennent que bien plus tard dans l’année ! Dès lors la question d’un moment T comme seul moment sommatif sur une notion se pose : est-il juste de remplir le LSU avec des données qui ne sont peut-être plus vraies au moment où le professeur les communique, mais dont la transmission va avoir un impact effectif sur la façon dont l’élève est perçu par ses parents, l’institution scolaire, et in fine, lui-même ? Comme le note de Vecchi, c’est là l’un des écueils inacceptables de l’évaluation ponctuelle qu’elle ne laisse aucune chance à l’élève de se rattraper.
A l’inverse, replacé dans un temps plus long, le sommatif peut devenir une pratique au service de la validation des acquis par les élèves, à charge alors pour le professeur d’observer finement le moment où il lui paraîtra le plus indiqué de soumettre une nouvelle évaluation à ceux qui semblent pouvoir la réussir. A charge aussi pour lui, évidemment, de donner à cette évaluation la forme la plus adéquate, au vu de ce qui a été dit dans toute cette partie.
C’est cette question de la forme qui va maintenant faire l’objet d’un compte rendu analytique. Dans la partie qui suit, je proposerai un retour d’expérience permettant d’apprécier l’évolution de mes pratiques sommatives durant l’année. Puisqu’il est dit qu ’on n’apprend bien que par l’expérience, et qu’une vraie chute veut mieux que dix schémas pour apprendre à marcher, la première partie sera consacrée au compte-rendu d’une évaluation qui m’a été très instructive par les erreurs qu’elle comporte. Je me pencherai ensuite sur les différentes façons dont mes copies de « contrôles » ont évolué à la suite de cette expérience. Enfin, je rendrai compte des diverses pratiques que j’ai mises en place et qui entouraient l’évaluation sommative proprement dite, en vue de pallier ses divers effets structurels.
Analyse
Une évaluation non congruente
La première chose qui m’a frappé lors de la correction est la disjonction entre l’objet d’apprentissage initial et les points effectivement évalués. Alors même que l’intégralité de ma séquence portait sur les compétences suscitées et faisait preuve d’une certaine cohérence à cet égard, les questions que je propose manquent cruellement de congruence avec ces compétences.
Il apparaît ainsi que la méthode d’analyse travaillée durant les trois premières séances ne fait l’objet d’aucune évaluation, sous quelque forme que ce soit. Quant à la méthode d’analyse des sources, objet de la seconde phase de ma séquence, elle est bien reprise… dans la question bonus ! Ce qui revient à dire que j’ai travaillé d’arrache-pied pour faire intégrer des compétences très précises, le tout au travers de deux méthodologies d’analyse ciblées… et que j’a i balayé tout cela au moment de l’évaluation, comme si ma séquence n’avait servi à rien. Sur quoi porte donc effectivement mon évaluation ? Si l’on regarde les différents types de questions, il apparaît que je ne suis en train de me concentrer que sur la vérification de l’apprentissage des différentes leçons. Autrement dit, tout se passe comme si les séances n’avaient été qu’une façon plus ou moins folklorique d’amener aux connaissances qu’elles permettaient de faire émerger, connaissances qui auraient été l’unique objet de mon enseignement.
Pourquoi ai-je agi ainsi ? En début d’année de PES, on avance beaucoup au jugé, parfois presque « à l’aveugle ». On est peu sûr de sa légitimité et, surtout, nous manquons de repères. Il s’agit de trouver des modèles afin de pouvoir construire une normativité à laquelle se référer lorsqu’on voudra concevoir une « bonne » évaluation. Je me suis donc inspiré de manuels, de recherches internet et d’évaluations diverses déjà existantes pour concevoir une évaluation qui fasse « professeur ». Le problème est que, ce faisant, j’en suis arrivé précisément à évaluer la seule chose que nous n’avions pas travaillée en classe : l’apprentissage de la leçon par l’élève lui même. Lorsque j’agis de la sorte, il est évident que je ne suis pas en train de mettre en œuvre une évaluation bienveillante, permettant à l’élève d’apprécier l’intégration des compétences travaillées et me permettant à moi de voir dans quelle mesure mon enseignement a été adapté aux élèves. Bien au contraire, je tombe dans l’écueil d’une évaluation-sanction, qui ne peut que reproduire mécaniquement les inégalités : mon évaluation valide et sanctionne un état de fait dans le rapport à l’apprentissage par cœur, sans y apporter la moindre modification. De plus, elle créé une congruence artificielle entre cette validation et le fait d’avoir « compris la leçon », puisqu’elle clôt la séquence ; les élèves obtenant un retour négatif à cette épreuve se retrouvent donc avec un constat d’échec alors même qu’ils peuvent avoir travaillé et compris les notions enseignées. Or, nous avons vu avec de Vecchi l’importance que ce constat avait sur l’image de l’élève et sa motivation : en agissant de la sorte, je n’évalue pas – mes enseignements – mais je classe – mes élèves. Bien plus grave, je mets en place une dynamique d’échec chez les élèves que je classe mal, comme cela a été montré en partie I !
A la lumière de ce problème, il m’est donc apparu clairement une chose simple : la première question à se poser lorsque l’on conçoit une séquence, quel que soit le champ disciplinaire concerné, est celle de l’évaluation. Qu’est-ce que j’évalue en fin de séquence ? Cette question doit être en congruence totale avec une autre : Quel est mon objectif en termes d’apprentissages ? Il ne s’agit pas tant d’un débat entre évaluation par compétences et évaluation sur l’acquisition des savoirs en soi mais bien de se demander ce qui a été le but de notre enseignement durant la séquence. L’évaluation ne se fabrique pas au jugé, n’a pas pour but de ressembler à une « bonne évaluation ». En fait, elle n’a pas pour but de ressembler à quoi que ce soit. La forme qu’elle prend doit tout simplement être la plus adéquate possible en vue d’une évaluation objective et bienveillante, permettant l’enregistrement des réelles capacités des élèves. Le deuxième point est qu’elle doit être conçue pratiquement en même temps que la fiche de séquence ; du moins l’évaluateur doit-il avoir clairement en tête ce qu’il évaluera. Ces deux conclusions, qui paraîtront sans doute évidentes à tout professeur expérimenté, sont absolument fondamentales à prendre en compte si l’on veut que nos évaluations soient réellement des outils au service de l’élève et non des moyens avérés de cristallisation des inégalités. Je montrerai plus bas comment j’ai pris acte de ces faits dans la construction de mes évaluations suivantes.
Aux prises avec la correction : découverte de ce que j’évalue effectivement et de l’inégalité de traitement entre les compétences évaluées
Les considérations ci-dessus sont nées des problèmes que j’ai rencontrés lorsqu’est venu le moment de la correction. Si les questions que je posais dans l’évaluation avaient fait l’objet d’une réflexion – globalement, le but final était de traverser l’ensemble des leçons, de couvrir tous les points importants –, la façon dont je devais les corriger était resté dans l’angle mort de ma conscience. Avançant au jugé, je n’avais pas encore réalisé les difficultés qui allaient m’être posées. J’avais certes eu plusieurs fois, durant la période 1, à réfléchir longuement sur la façon d’organiser mon barème au moment de corriger les copies – ce qui occasionnait des après-midi pour le moins laborieuses. La difficulté attint cependant ici un point tel, que la nécessité d’une scission avec les méthodes qui avaient été les miennes jusqu’à présent devint évidente.
Bilan
Je me suis donc retrouvé face à une évaluation dans laquelle les contenus enseignés durant la séquence étaient absents ou sous-représentés, du fait d’un manque de questionnement en amont. J’ai dû opérer une compensation très compliquée – et imparfaitement satisfaisante – pour rattraper le déséquilibre entre les compétences et connaissances que j’évaluais effectivement, et me suis tout de même retrouvé au final avec un item problématique puisque n’évaluant rien de pertinent (l’item « habillement »). La question de ce que j’évalue, donc de ce que j’ai enseigné, a été insuffisamment posée ; il apparaît ici qu’il est absolument fondamental de l’avoir en tête en permanence lorsqu’on conçoit son évaluation.
La question de l’objectif poursuivi derrière chaque exercice est également fondamentale : est-ce que je fonctionne selon une logique scorée ou est-ce que je privilégie la vérification de l’acquisition d’une compétence/connaissance ? Se la poser face à chaque exercice peut aider à éviter les écueils de ma question 1, qui m’empêche de vérifier clairement l’acquisition du vocabulaire, tout en induisant un fonctionnement « à points » – l’inverse, en un mot, de ce qu’une évaluation « juste » est sensée être. Une évaluation ne peut pas être un objet conçu au jugé, ou trop rapidement. En l’absence d’une réflexion bien structurée, elle tombera forcément dans les écueils qui ont été les miens ici, en induisant des biais dans la correction, en mettant à mal la justice scolaire par un déséquilibre dans l’évaluation des différentes compétences/connaissances, en générant opacité et ambiguïté (évalue-t-on selon une logique thématique, une logique de points, une logique par compétences…) dans l’information finale transmise par la note/appréciation à l’élève et à ses parents.
J’aimerais lier ces considérations à un dernier point, qui me semble mis en lumière par cette expérience. Lorsqu’il parle de l’évaluation, de Vecchi note un phénomène assez surprenant, que j’ai d’abord trouvé difficile à comprendre : le fait que pour beaucoup d’élèves, l’évaluation ne fasse pas sens . Que veut-il dire par là ? Je pense que ce constat peut être mieux compris si l’on considère que c’est au détour de ce genre d’expérience, où une évaluation est en effet en décalage avec ce qu’elle est sensée évaluer, qu’un élève peut développer cette sensation de confusion. En considérant les trois violences successives que constituent un sujet d’évaluation non congruent avec les conceptions que l’on a construites, une note et un commentaire médiocres, et le fait de devoir faire signer cette évaluation par ses parents, il me semble qu’on peut comprendre que l’élève, psychologiquement secoué, s’installe dans un sentiment durable de confusion quant à sa capacité à comprendre les attendus scolaires. S’il ne peut analyser ce qui n’allait pas dans la façon dont il a été évalué, il semble logique qu’il en arrive à percevoir l’ensemble du système évaluatif comme aléatoire. De plus, comme d’autres élèves réussissent effectivement, il a de grandes chances d’en arriver à la conclusion que c’est lui qui n’est pas « suffisant ».
Indépendamment de la pertinence – qu’il n’a pas forcément les clés pour percevoir – ou de la facilité de l’évaluation, c’est la situation évaluative qui devient donc génératrice de stress en soi, enfermant les élèves dans un cercle vicieux : l’évaluation ne fait plus jamais sens, du simple fait qu’elle n’a, un jour, en effet pas eu de sens.
La grille de compétences : un outil holistique
Permettre évaluation réellement congruente
Afin d’atteindre les objectifs définis ci-dessus, je me suis approprié un outil découvert chez ma PEMF, Mélanie Cueto, lors des séances d’observation dans sa classe. Mélanie fait figurer en haut de chaque copie une grille de compétences précises ; pour chaque compétence est indiqué le ou les exercices correspondant(s) et une colonne dans laquelle inscrire le niveau d’acquisition de la compétence – acquis, en cours d’acquisition, non acquis – après correction de la copie. Loin d’être un simple moyen de clarifier les notions évaluées pour les parents, cette grille implique e fait de nombreuses transformations dans la façon d’aborder la construction de mon devoir sommatif.
L’annexe n°4 présente une évaluation de géométrie que j’ai conçue grâce à une telle grille. Le premier point à noter est que sous cette forme, les compétences et connaissances sur lesquelles portent l’évaluation sont bien définies pour moi. Ceci me permet de structurer mon évaluation de façon claire et pertinente : les exercices ne sont pas le fruit de conceptions plus ou moins aléatoires mais d’une réflexion précise. Ils suivent désormais cette chaîne de construction mentale : « qu’est-ce que j’ai enseigné aux élèves ? telle compétence, telle connaissance quels gestes et actions permettent de rendre compte de l’acquisition de ces connaissances et compétences au mieux ? » De la réponse à cette dernière question naissent à la fois la grille et les exercices.
Cette forme de conception a l’avantage notable de resserrer l’évaluation au plus près des connaissances et compétences effectivement apprises durant la séquence. Elle permet de plus de dresser une série d’observables précis qui réduisent d’une part l’arbitraire de la correction et d’autre part les amalgames entre plusieurs compétences et/ou connaissances dans les exercices.
Le cas de l’exercice 1 de l’évaluation d’histoire, qui mêle restitution de faits appris et utilisation de stratégies logiques, a ainsi peu de chances de se reproduire, puisque face à chaque exercice je suis amené à me demander s’il évalue bien la compétence désirée et uniquement celle-là.
Globalement, l’utilisation de cet outil amène donc à un recul dans la construction de l’évaluation et à une certaine technicité dans la conception des différents exercices. Ceux-ci ne sont plus jamais repris tels quels d’un manuel ou d’internet, mais modifiées ou conçus de A à Z pour correspondre à mes observables. Cette congruence directe entre construction d’une grille d’observables et exercices permettant l’évaluation de ceux-ci permet également d’éviter les répétitions inutiles – je pense ici aux 6 questions de l’évaluation d’histoire qui n’allaient toutes que dans le sens de la vérification des savoirs – comme les oublis importants – je n’ai jamais évalué la compétence d’analyse de documents qui était au cœur de ma séquence sur les gaulois.
Si l’on regarde l’évaluation de géométrie, on peut ainsi noter qu’il y a sept exercices pour neuf compétences évaluées, là où un nombre presque équivalent de questions dans l’évaluation précédente renvoyait à seulement trois pôles de compétences. La courbe a été inversée en termes d’efficacité ; aucun exercice n’est superflu, et chaque compétence renvoie à un ou plusieurs exercices précis – ainsi les exercices 2 et 3 renvoient-ils tous deux à la compétence « je sais identifier un polygone » mais en couvrant deux aspects différents de cette compétence.
La question bonus, quant à elle, correspond à une compétence que j’ai faite travailler durant la séquence mais pour l’étude de laquelle le temps a manqué. Face aux impératifs temporels des programmes et de l’année de PES, j’ai décidé de ne pas retarder le moment de l’évaluation ; il n’aurait cependant pas été correct de donner à cette compétence le même poids qu’aux autres. La question bonus prend donc ici un sens réel en ceci qu’elle résulte d’un compromis entre le calendrier des programmes et l’avancée effective dans la séquence ; il ne s’agit ni de « donner des points » – nous verrons plus bas que cette notion n’a d’ailleurs plus de sens dans le cas qui nous occupe – ni de minimiser un exercice de peur que les élèves le ratent – ce qui avait présidé à mettre mon exercice sur la pertinence des sources en bonus dans l’évaluation sur les gaulois.
Si l’on compte les items de la grille de l’évaluation de géométrie, on constate qu’il n’y a pas une congruence totale – neuf compétences pour sept exercices. Les deux compétences ‘’surnuméraires’’ sont « je sais écrire les noms des différentes familles de polygones » et « je sais écrire correctement les noms des différents types de triangles ». Celles-ci sont évaluées dans les exercices 4 et 5, en même temps que les compétences « je sais identifier les différentes familles de polygones » – exercice 4 – ; « je connais les propriétés des différents triangles particuliers et je sais les nommer » et « je sais reconnaitre les différents types de triangles en me reportant aux codifications » – exercice 5. En effet, les élèves sont amenés ici à écrire le nom des différents types de polygones et de triangles dans le même moment où ils les reconnaissent. Si mettre en place une grille d’évaluation permet d’éviter la confusion entre différentes compétences au sein d’un même exercice, comme cela a pu être le cas dans l’exercice 1 de mon évaluation d’histoire, il ne s’agit pas pour autant de dissocier artificiellement celles qui sont évaluables en même temps sans risque d’amalgame. L’avantage est de permettre de valider la compétence de reconnaissance des polygones/triangles même lorsque l’orthographe est faussée, et inversement : l’évaluation est ainsi réellement opérée au plus près des différentes acquis et ne pénalise pas les élèves de façon injuste.
|
Table des matières
Introduction
Partie 1 : L’évaluation, une violence ordinaire
1. La note, un outil d’une valeur discutable
a) Vers une notation objective : le caractère aléatoire de la note
b) La note n’est pas l’évaluation
2. Pour une évaluation réellement informative
a) Les biais de notation
b) L’effet évaluation
c) Un outil limité
3. … et formative !
a) Une évaluation qui fait obstacle aux apprentissages
b) L’évaluation sommative : un maillon d’une chaine beaucoup plus large
Partie 2 : De l’évaluation « au jugé » à la conception d’évaluations sommative pertinentes : compte-rendu d’une année de travail
I. Les problématiques liées à la conception de l’évaluation sommative
1. Le contexte
2. Analyse
a) Une évaluation non congruente
b) Aux prises avec la correction : découverte de ce que j’évalue effectivement et de l’inégalité de
traitement entre les compétences évaluées
c) Cas précis de correction : la question de la justice scolaire
d) Bilan
II. Les problématiques liées à la conception de l’évaluation sommative
1. Limites et points morts des observables
2. La grille de compétences : un outil holistique
a) Permettre une évaluation réellement congruente
b) La notation revisitée
c) Une communication de qualité
3. Pallier l’effet évaluation
Conclusion
Télécharger le rapport complet