Perception de l’environnement urbain à l’aide d’une flotte de capteurs sur des velos

La ville peut être vue comme le résultat de la concentration dans l’espace et dans le temps des hommes et de leurs activités. Elle est empreinte de leurs interactions quotidiennes et évolue pour répondre aux besoins de la communauté. Une ville intelligente (ou Smart City en anglais) est une zone urbaine qui utilise les technologies de l’information et de la communication pour gérer des services et établir des actions à mener. L’Internet des Objets élargit ce concept à une infrastructure mondiale pour mettre en réseau tout objet pouvant être source d’informations. Il s’agit de tous les objets personnels de la vie courante (téléphone, réfrigérateur, brosse à dents. . .), mais aussi des objets communs (rues, transports, musées. . .) et de nouveaux à imaginer, particulièrement dans le domaine de la santé.

Concrètement, une ville « intelligente » possède deux caractéristiques. La première est de surveiller en continu l’état de l’infrastructure de la ville et des interactions grâce à des capteurs répartis géographiquement afin de permettre aux systèmes urbains de s’autoréguler. La seconde est de mettre en place des processus cognitifs pour traiter les données collectées – notamment à l’aide de l’apprentissage automatique et des algorithmes de communications décentralisées dits « répartis » – afin de répondre à une question. Dans cette thèse, nous nous sommes intéressés au vélo et à ses utilisateurs. Ce moyen de transport a été inventé au xixe siècle à l’aube de la seconde révolution industrielle, qui verra s’imposer le pétrole comme la source d’énergie incontournable. Or les conséquences néfastes (pollution de l’air et réchauffement climatique) de l’utilisation de ce même pétrole pousse aujourd’hui les citoyens à se tourner davantage vers ce mode de transport. Vieux moyen de transport mais nouvel objet de mobilité, le vélo s’impose dans les villes qui se veulent durables.

De la collecte de l’information au modèle

Perception artificielle et science des données

Exemple historique et trilogie de Jeff Wu

L’exemple historique suivant présente les enjeux de la perception au travers du cas concret de l’estimation de la houle dans les îles Marshall par la population locale, et leurs relations avec la science des données. En effet, le processus de création de connaissances naturellement mis en place par les Marshallais esquisse les principes du formalisme actuellement admis dans le monde de la recherche et de l’ingénierie.

Exemple historique : cartes à bâtonnets des îles Marshall
La navigation a toujours été un enjeu crucial dans les îles du Pacifique. Afin de faciliter leur déplacement d’îles en îles, les Marshallais confectionnaient des « cartes à bâtonnets » de la houle – conséquence de l’interaction entre terre, mer et vent –, transmises de père en fils. La culture du secret qui entoure ces cartes a conduit à de nombreuses variantes et leur découverte par l’Occident ne date que de 1862. Elles furent utilisées jusqu’après la Seconde Guerre Mondiale car de qualité comparable aux cartes produites par les technologies contemporaines. Ces cartes étaient fabriquées avec des matériaux locaux rudimentaires, généralement à partir de tiges de cocotiers pour représenter l’énergie des vagues (front d’onde et rayon d’onde après réfraction, mais aussi réflexion et diffraction) et de coquillages ou intersections de bâtonnets pour représenter les sources de perturbations (atolls, récifs. . .). Pour les élaborer, les Marshallais devaient se géolocaliser et estimer l’intensité de la houle. Pour cela, ils se servaient d’étoiles fixes et de chansons rythmées pour mesurer le temps et l’espace ; et stimulaient leur sensation de l’énergie des vagues en s’allongeant dans leur pirogue (Davenport, 1960). Les informations ainsi collectées étaient mémorisées directement sous forme de cartes schématiques (Feinberg et al., 2003). Cette représentation abstraite, entre les cartes et les graphes, se focalise sur ce qui est jugé comme essentiel : la géométrie de la dynamique des vagues induite par la forme des îles et non les distances absolues. Elle est le fruit de la compréhension et de la modélisation du phénomène par les navigateurs (Ascher, 1995). Enfin, trois types de cartes existent: le rebbelith, qui décrit un ou plusieurs archipels ; le meddo, qui se concentre sur une zone plus réduite ; le mattang, qui a pour vocation l’enseignement des concepts fondamentaux. Ainsi, les mattangs permettent de transmettre les connaissances acquises sur la houle et les dynamiques couramment rencontrées aux abords des îles, mais aussi sur le système de représentation. Les rebbeliths et meddos, eux, sont plus épurés et indiquent les spécificités de la région.

Premièrement, les trois étapes fondamentales de la science des données, trilogie proposée par Jeff Wu (Donoho, 2017), se distinguent nettement :
— la collecte de données, capture d’une représentation de l’information, via les voyages en pirogue,
— l’analyse des données et la modélisation du phénomène, via les cartes à bâtonnets,
— la résolution du problème et la prise de décision, via l’utilisation des cartes pour minimiser l’effort fourni pour se déplacer.

Deuxièmement, l’importance de la collecte de données est soulignée par les méthodes sophistiquées élaborées par les Marshallais. Ils assurent des mesures précises par la définition d’un référentiel à l’aide de chants et d’étoiles et l’utilisation de leurs sens, seuls « capteurs » de la réalité dont ils disposent. Issu d’expéditions en pirogue, le coût de l’instrumentation – mis en exergue par la culture du secret – conduit à la coopération. Troisièmement, l’abstraction Marshallaise concilie la complexité nécessaire à une représentation utile et manipulable de l’environnement, la simplicité nécessaire à sa mémorisation et sa transmission et la flexibilité nécessaire à la naissance d’autres concepts. Quatrièmement, le perfectionnement de la modélisation – de générations en générations – est essentiel à la conception d’un modèle fiable, et donc de connaissances. Ainsi, cet exemple souligne l’approche empirique et itérative de la perception vue par la science des données.

Développement de la science des données

Les statistiques peuvent être considérées comme les prémisses de la sciences des données. Étymologiquement, statistica provient de l’italien stato (« état ») et statista (« homme d’état »), et eux même du latin status au sens équivoque «situation, état » et « état social, état politique » (Oriol, 2010; Heuschling, 1847) ; et réfère à la nécessité intrinsèque de l’État de caractériser la société pour agir, quelque soit sa vocation affichée (État-providence, État-planificateur, État-stratège. . .). Par exemple au point que, selon Hérodote, le pharaon Amasis (570–526 avant Jésus-Christ) édicte une loi pour contraindre les égyptiens, sous peine de mort, à déclarer annuellement l’origine de leurs ressources (Hombert et Préaux, 1952). Initialement, les techniques consistaient essentiellement à recenser des données, notamment cadastrales et démographiques, à vocation descriptive pour les États. Puis, inspirées du concept de science de l’État (staatskunde, composé de «staats», l’État, et « kunde », la connaissance), elles sont formalisées au cours du xviiie siècle. Achenwall est le premier à utiliser le terme statistik en allemand, statistica en latin moderne, (« relatif à l’État ») pour nommer ce domaine des sciences politiques : l’ensemble des connaissances de l’État Heuschling (1847). Ensuite, les techniques se sont diversifiées pour mieux servir les besoins de prévisions de l’État. Par exemple, en Angleterre au début du xxe siècle, pour assurer une pendaison mortelle mais non sanguinolente, un tableau de correspondances entre le poids du condamné et la longueur de la corde a été établi au fil des essais . L’évolution des analyses statistiques, sous différentes appellations, conserve cette vocation perceptive mais se généralise à tout l’environnement dans lequel l’humain évolue. Le but de cette science est d’une part, de caractériser un environnement de façon efficace, i.e. assurer un réalisme utile à l’action tout en s’épargnant le plus que possible la mesure, et d’autre part, d’estimer la confiance à accorder à cette caractérisation. Dans la deuxième moitié du xxe siècle, propulsée par les premiers ordinateurs, la digitalisation de pans entiers de la société ouvre une ère d’abondance pour les données. Cette abondance fait évoluer les pratiques au sein de la statistique.

Dans les années 1970, le concept d’analyse ou science des données émerge en se différenciant des statistiques par la place centrale qu’elle accorde au traitement de ces données. La science des données s’est davantage focalisée sur le développement de techniques d’analyse. Figure centrale de ces développements, Tukey distingue deux types d’analyses complémentaires en fonction de l’approche: déductive, sous le nom « analyse exploratoire de données » et inductive, sous le nom « analyse confirmatoire de données ». L’analyse exploratoire de données inspecte le jeu de données, décèle les valeurs aberrantes, envisage plusieurs relations concernant les causes du phénomène observé, identifie des tendances ou des motifs et enfin conjecture des propriétés sur les données par le biais d’hypothèses statistiques. L’analyse confirmatoire de données détermine la plausibilité d’une hypothèse statistique au regard d’un jeu de données inexploré et confirme ou infirme la valeur de postulat de l’hypothèse. Inspirés de la perception humaine, ces deux modes de raisonnement sont complémentaires dans le processus de création de connaissances. Fin des années 1980, Gregory Piatetsky Shapiro propose en parallèle un processus agnostique de création de connaissances en science des données, sous la terminologie Knowledge discovery in data bases (KDD), plus général, incluant l’exploration de données. Rapidement, toute information numérisée devient donnée candidate à l’exploitation. Les entreprises commencent à traiter massivement les données internes à l’entreprise pour mieux cibler les clients et optimiser les décisions. A l’heure actuelle, le nouvel enjeu est de traiter la masse de données collectées continuellement par l’Internet des Objets.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
Bibliographie
1 De la collecte de l’information au modèle
1.1 Introduction
1.2 Perception artificielle et science des données
1.2.1 Exemple historique et trilogie de Jeff Wu
1.2.2 Développement de la science des données
1.3 Paradigmes retenus
1.3.1 Apprentissage automatique
1.3.2 Réseaux de capteurs et systèmes répartis
1.3.3 Création de connaissances
1.4 Problématique de la qualité de l’air en zone urbaine
1.4.1 Législation relative à la surveillance des polluants atmosphériques
1.4.2 Émissions de polluants atmosphériques en zone urbaine
1.4.3 Représentations des concentrations à l’échelle de la ville
1.5 Vers de nouvelles observations en réseau
1.5.1 Capteurs
1.5.2 Réseaux participatifs
1.5.3 Plateforme de mobilité
1.5.4 Mobilité : vie privée versus utilité
1.6 Conclusion et consécution des chapitres suivants
Bibliographie
2 Approche théorique d’un réseau de capteurs mobiles
2.1 Introduction
2.2 État de l’art
2.2.1 Réseau de capteurs mobiles en zone urbaine
2.2.2 Familles de méthodes statistiques de spatialisation
2.3 Génération des observations synthétiques
2.3.1 Zone d’étude
2.3.2 Extraction des variables explicatives de la ville depuis OSM
2.3.3 Simulation des trajets à vélo
2.3.4 Observations synthétiques à partir d’un modèle numérique de qualité de l’air
2.4 Spatialisation des observations mobiles
2.4.1 Sensibilité au nombre de trajets
2.4.2 Sensibilité à la fréquence d’échantillonnage
2.5 Analyse de la spatialisation
2.5.1 Cartes prédites par spatialisation
2.5.2 Sources d’erreur de spatialisation
2.5.3 Détection d’une perturbation spatiale
2.6 Conclusion
Bibliographie
3 Conception d’un système embarqué pour la pollution de l’air en zone urbaine
3.1 Introduction
3.2 Micro-capteurs low-cost de pollution de l’air extérieur
3.2.1 Comparaison des familles de micro-capteurs
3.2.2 Les capteurs à Métal-Oxyde Semi-conducteur
3.2.3 Le capteur MiCS-4514
3.3 Prototypage
3.3.1 Analyse du besoin
3.3.2 Réalisation du prototype
3.3.3 Modifications apportées
3.3.4 Fonctionnement final
3.4 Retour d’expérience
3.4.1 Solution de bout en bout et simplifications
3.4.2 Alimentation : dynamo et batteries
3.4.3 Réalisation du boîtier et appareillage
3.4.4 Synchronisation d’un récepteur GPS en mouvement dans un milieu urbain
3.5 Évaluation des performances de nos capteurs en situation contrôlée
3.5.1 En laboratoire
3.5.2 In situ
3.6 Conclusion
Bibliographie
4 Application à la métropole de Toulouse
4.1 Introduction
4.2 Stratégies de mesure
4.2.1 Association de location de vélos
4.2.2 « vélo-taffeurs » scientifiques
4.3 Jeu de données collecté
4.3.1 Formatage des données
4.3.2 Filtrage et reconstruction des trajets
4.3.3 Profils utilisateurs
4.4 Évaluation de l’état de la pollution dans Toulouse
4.4.1 Analyse temporelle des mesures ATMO Occitanie sur Toulouse
4.4.2 Analyse de trajets particuliers
4.4.3 Étalonnage collaboratif par Rendez-Vous
4.4.4 Analyse des mesures de polluants sur vélo
Conclusion

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *