Numérique et informatique à l’école : définitions, évolutions et perspectives
De quelle informatique parle-t-on lorsque l’on parle d’enseigner l’informatique à l’école ? La plupart des personnes disent « faire de l’informatique » lorsqu’elles remplissent un Doodle ou qu’elles saisissent un document sur un traitement de texte. Une étude menée en 2016-2017 dans le cadre du projet de recherche ANR DALIE montre que les représentations de l’informatique des étudiants stagiaires en Master MEEF restent très majoritairement associées aux notions d’outils et d’usages qui relèvent pourtant du champ du numérique. Seul un petit nombre d’entre eux a une conscience de l’informatique comme science du traitement automatisé de l’information (Drot-Delange, 2018). Probablement les évolutions extrêmement rapides de l’informatique au cours de ces soixante-dix dernières années et la pénétration de ses applications dans les sphères personnelles et professionnelles sont-elles à l’origine de ces représentations. Quoi qu’il en soit, ces données engagent à opérer d’emblée une clarification. Qu’est-ce que l’informatique et pourquoi est-elle aujourd’hui considérée comme une science ? En quoi se différencie-t-elle de ce que l’on appelle le numérique et quelles sont les relations entre les deux ?
Numérique et informatique : représentations et définitions des concepts
Qu’est-ce que la science informatique ?
Pour comprendre ce qu’est l’informatique, et ce qui fait sa spécificité, je prends essentiellement appui sur la série de cours donnés par Gérard Berry, titulaire de la chaire Algorithmes, machines et langages au Collège de France et promoteur d’un enseignement de l’informatique dès l’école primaire. Intitulées « Où va l’informatique? », ces interventions reprennent le contenu de son ouvrage L’HYPERPUISSANCE DE L’INFORMATIQUE. ALGORITHMES, DONNEES, MACHINES, RESEAUX (Odile Jacob, 2017). Pour Gérard Berry, l’informatique constitue une rupture dans l’histoire des découvertes scientifiques et techniques modernes. En effet, la pensée scientifique et technique, qui change en profondeur le monde à partir de la seconde moitié du 18e siècle et permet la révolution industrielle, s’articule autour de découvertes dans trois grands domaines : la matière, l’énergie et les ondes électromagnétiques. A la différence de ces découvertes, l’informatique, qui apparaît au milieu du 20e siècle, n’est pas issue de l’observation et de la compréhension de la nature, mais relève d’une construction, au sens où ses briques de base sont construites de toutes pièces par l’Homme. Surtout, elle s’intéresse à un domaine jusque-là peu abordé, mais qui a un rôle central chez l’Homme : l’information. L’informatique va permettre de la manipuler à de grandes échelles à partir de deux grands principes : sa modélisation sous une forme numérique et son traitement automatique par des algorithmes. Ces idées viennent briser les veilles limites et donnent accès à des applications qui étaient inenvisageables avec les représentations du 19e siècle, dépendantes des caractéristiques de la matière. Pour éclairer la rupture apportée par l’informatique, prenons un exemple concret : l’appareil photo. Dans un monde fonctionnant avec les connaissances des 18e et 19e siècles, il serait impossible de faire de bons appareils photo dans des Smartphones. Leurs optiques rudimentaires, sujettes à de fortes distorsions, constitueraient un obstacle infranchissable. Dans le monde du 21e siècle, grâce à l’informatique, cela devient possible. Les défauts des images, engendrés par les faibles performances des capteurs, sont corrigés par des algorithmes. Cet exemple illustre la façon dont l’informatique vient briser les vieilles limites : limites matérielles, mais également limites de pensée. Bien plus qu’un outil (l’expression « outil informatique » encore très répandue reprend les représentations des siècles précédents), l’informatique est une science qui induit une nouvelle façon de penser les choses et dont les applications sont transversales à quasiment tous les domaines.
Cette transversalité prend son origine dans l’universalité des principes sur lesquels repose l’informatique.
1- La notion d’information est universelle à tous les domaines. Qu’il s’agisse de géographie, de sciences physiques, d’histoire ou de médecine, toutes les disciplines partagent la même notion de l’information ;
2- La notion d’algorithme est elle aussi universelle. Suite précise d’opérations effectuées sur des données en entrée qui fournit des données en sortie (les données en entrée pouvant être utilisées en entrée d’un autre traitement), l’algorithme permet une variété d’applications quasi infinie allant de la compression des images à la gestion du trafic routier en passant par la reconnaissance d’objets ;
3- La modélisation de l’information sous une forme numérique est la même pour tous les types de données : texte, image, audio, carte géographique ou séquence du génome sont codés suivant le même modèle ;
4- Les machines informatiques fonctionnent toutes sur les principes issus de la machine universelle de Turing : c’est en effet bien le même type de machine (exception faite de sa puissance) qui commande un lave-linge, un véhicule ou sert aux prévisions météorologiques. Autrement dit, la même machine sert pour tout à partir du moment où l’on a mis dedans le bon programme.
Il est important de comprendre que le développement exponentiel des applications de l’informatique repose sur ces quatre caractéristiques et que la diversité des tâches prises en charge par le traitement automatique de l’information constitue à la fois un véritable changement mental et un potentiel de développement considérable : il n’y a en effet pas de limite définie au traitement de l’information. Reproductible, conservable, traitable et communicable de façon quasi instantanée, l’information a des caractéristiques très différentes de la matière et de l’énergie. Seule la puissance de calcul, la capacité de stockage, la vitesse de transfert, tous trois en constante augmentation depuis soixante-dix ans, constituent des facteurs limitant. Si l’étendue des applications de l’informatique n’a cessé de s’étendre, touchant aujourd’hui presque tous les domaines, les potentialités restent vertigineuses.
Alors que les services relèvent d’une logique d’usage, qui se fait à travers des parcours et des interfaces choisis par les concepteurs et qui sont variables dans le temps, l’informatique en tant que science du traitement de l’information repose sur des invariants et des conceptualisations relatives à la modélisation de l’information et à son traitement automatique par des machines qui fonctionnent toutes sur un même principe.
Le domaine des connaissances aujourd’hui couvert par la science informatique est découpé en sous-domaines qui servent à structurer son enseignement. En France, la typologie qui fait autorité est celle proposée par Gilles Dowek, composée de quatre sous-domaines (Dowek, 2011) :
– L’information numérique : elle permet de représenter sous une forme unifiée des informations de nature et de domaine divers : textes, images, sons etc. ;
– Les algorithmes : ils spécifient de façon abstraite, sous la forme d’un enchaînement précis d’opérations, les traitements à effectuer sur l’information ;
– Les langages : ils permettent de traduire des algorithmes abstraits en programmes exécutables par les machines ;
– Les machines informatiques : elles permettent d’exécuter les programmes, de stocker les données et de gérer les communications. Elles comprennent les objets connectés et les réseaux.
Qu’est-ce ce que le numérique aujourd’hui ?
Le sens du terme « numérique » a évolué au cours des cinquante dernières années, s’enrichissant de nouvelles significations. Etymologiquement, le terme « numérique » signifie : « qui concerne les nombres ». Avec les progrès technologiques, son sens s’est enrichi pour désigner toute information (texte, image, vidéo…) modélisée sous la forme d’une suite de nombres et pouvant être traitée par un dispositif informatique ou électronique. Avec la convergence technologique de l’informatique et des télécommunications, qui a donné naissance à Internet, le terme s’est à nouveau enrichi pour englober les réseaux et les contenus diffusés par ces réseaux. A partir de 2005-2010, l’arrivée conjointe des terminaux intelligents sans fil et des technologies 2.0 qui ont fait du Web une gigantesque plateforme pour des services interactifs à l’échelle mondiale générant de gigantesques quantités de données sur le comportement des utilisateurs, la problématique centrale du numérique est devenue celle des usages de services connectés. Aujourd’hui, le terme «numérique», évacuant la dimension technologique de ses débuts, fait essentiellement référence aux services et usages connectés.
Relation entre numérique et informatique
Il n’y a pas de rupture entre informatique et numérique, mais une continuité. Si le monde numérique, de plus en plus tourné vers une logique de l’usage, se concentre sur l’expérience utilisateur, ses services sont rendus possibles par l’informatique sous la forme d’empilements de programmes qui communiquent entre eux (du programme de bas niveau qui gère la mémoire physique de la machine jusqu’à celui qui gère l’interface) d’une manière transparente pour l’utilisateur. On pourrait dire, en grossissant le trait, que le numérique désigne aujourd’hui le versant visible de l’iceberg (les services), tandis que l’informatique désigne la partie invisible (les processus qui soutiennent le fonctionnement des services).
|
Table des matières
Introduction
Partie 1 – Numérique et informatique à l’école : définitions, évolutions et perspectives
1. Numérique et informatique : représentations et définitions des concepts
1.1 Qu’est-ce que la science informatique ?
1.2 Qu’est-ce ce que le numérique aujourd’hui ?
1.3 Relation entre numérique et informatique
2. Numérique et informatique : repères historiques sur les conceptions de ce qu’il faut enseigner à l’école
2.1 Un mouvement de balancier entre deux conceptions
2 .1.1 Années 1970-1980 – Les premiers pas
2.1.2 Années 1990-2000 – L’informatique comme outil : une logique d’usage et un régime de la certification sans curriculum
2.1.3 Années 2010 – Reconsidération de la question de l’informatique comme objet d’enseignement11
2.1.4 Les facteurs à l’origine d’une reconsidération de la question de l’informatique à l’école
3. Etat actuel de l’enseignement de l’informatique en France et dans des pays voisins « pionniers »
3.1 Situation en France
3.1.1 Au lycée
3.1.2 Au collège
3.1.3 A l’école primaire
3.2 Situation dans des pays « pionniers » : cas de l’Angleterre et la Suisse francophone
3.2.1 Situation en Angleterre
3.2.2 Situation en Suisse
4. Quelles perspectives pour un enseignement de l’informatique en France dans une optique curriculaire ?
4.1 Un enseignement qui se structure, mais la possibilité d’une scission entre le primaire et secondaire
4.2 L’’importance des ressources pédagogiques pour amorcer le mouvement
Partie 2 – Elaboration d’un modèle de scénarisation pédagogique pour l’enseignement de l’informatique à l’école élémentaire dans une optique curriculaire
1. Présentation du projet de recherche IE-CARE et questions initiales
1.1 Présentation du projet de recherche ANR IE-CARE
1.2 Questions initiales de fonds soulevées dans le cadre du projet IE-CARE et réponses apportées
1.2.1 Quelle approche de l’informatique ?
1.2.2 La question de l’instrumentation
1.2.3 L’orchestration de la classe en contexte instrumenté par le numérique
1.2.4 Un questionnement sur la notion de pensée informatique
2. Elaboration et expérimentation d’un scénario-test
2.1 Postulats de départ
2.2 Présentation du scénario test
2.3 Expérimentation du scénario-test
2.4 Discussion
3. Elaboration d’un modèle de scénarisation pédagogique
3 .1 Cadre d’usage et éléments constitutifs du modèle
3.2 Questions initiales et réponses
3.3 Modèle de scénario pédagogique : présentation
3.3.1 Approche pédagogique globale
3.3.2 Architecture globale d’un scénario
3.3.3 Langage de description
3.3.5 Formalisme de diffusion : les graphes d’orchestration
3 3.6 Discussion
Conclusion
Bibliographie
Index