Une première approche des bases de données en accès libre

Présentation de la démarche d’ensemble de la recherche

L’étude des données en accès libre sur Internet surla biodiversité en France a été, dès le début de la recherche, restreinte à dix espaces géographiques. Choisies par le programme BAGUALA, ces neuf régions doivent être représentatives de la situation en métropole : Alsace, Nord-Pas-deCalais, Bourgogne, Limousin, Rhône-Alpes, Provence Alpes Côte d’Azur (PACA), Bretagne, Ile-deFrance (IDF), Poitou-Charentes, et des Collectivités d’Outre-Mer (COM) avec le choix de la Martinique. En effet, ils représentent une hétérogénéité physique (mers et océans, montagnes et campagnes), biophysique et climatique. De plus, différents niveaux d’urbanisation sont pris en compte, ainsi que culturels et sociaux. Enfin, ils regroupent des espaces tant frontaliers qu’aux interfaces entre mers et océans, que plus éloignés. Cet échantillon se veut donc le plus représentatif de la situation française.

Une première approche des bases de données en accès libre : l’inventaire et son analyse

Dans un premier temps, l’étude s’est attachée à inventorier les sites Internet proposant des données en accès libre sur la biodiversité. Cette méthodologie a permis d’élaborer l’inventaire, décrite dans un premier temps. Puis à partir de celui-ci a été réalisée une typologie permettant de proposer des critères de différenciation entre les sites. Une analyse cartographique détaillée permet ensuite d’apporter des éléments sur leur contenu. Puis, afin de pouvoir déterminer l’importance et la place du site Internet dans la sphère des données sur la biodiversité, l’étude expose les résultats de l’analyse de leurs réseaux. Enfin, quelques analyses d’initiatives de mise en accès libre viennent compléter cette première approche des bases de données.

Méthodologie de l’inventaire et des outils d’analyse

Pour réaliser l’inventaire, plusieurs étapes ont été menées : des requêtes sur un moteur de recherche, suivie de l’analyse par critères de l’inventaire, puis, pour analyser les liens entre les sites, la recherche a utilisé un crawler dont la démarche est ici développée.

Réalisation de l’inventaire par mots-clés sur un moteur de recherche

En France, il n’existe aucune base de données générale prenant en compte tous les aspects de la biodiversité. Le citoyen néophyte recherchant des données sur la biodiversité sur Internet n’a donc pas un site unique comme réponse. Ce mémoire demande donc, comme le ferait le citoyen, de repérer ces données en accès libre. Pour se rapprocher de la recherche par Internet d’un utilisateur lambda, il a été choisi de faire une requête via un moteur de recherche. En effet, « la décision d’utiliser un moteur de recherche comme un outil, et en ne sélectionnant que les meilleurs sites, reproduit la façon dont la plupart des utilisateurs de l’Internet trouvent les sites pertinents pour leurs intérêts (JONG, et al. 2003) » . Parmi les nombreux outils à la disposition de l’internaute, Google a été sélectionné en raison de son usage par près de 90% des internautes . Il est utilisé avec le navigateur Mozilla Firefox dont les extensions seront utilisées pour la suite de la recherche.
La recherche s’effectue sur les dix régions listées précédemment, en essayant de passer un temps d’investigation équivalent entre les différentes régions. Sur Google, des mots-clés identiques pour les dix régions ont donc été lancés en essayant de se rapprocher des requêtes qu’un utilisateur aurait pu entrer : « Données environnement Alsace », « Données environnement Bourgogne », « Données environnement Bretagne », « Données environnement IDF », « Données environnement Limousin », « Données environnement Martinique », «Données environnement NPDC », « Données environnement PACA », « Données environnement Poitou-Charentes » et « Données environnement Rhône-Alpes ». « Données faune Alsace », « Données faune Bourgogne», « Données faune Bretagne », « Données faune IDF », « Données faune Limousin », « Données faune Martinique », « Données faune NPDC », « Données faune PACA », « Données faune Poitou-Charentes » et « Données faune Rhône-Alpes ». « Données flore Alsace », « Données flore Bourgogne», « Données flore Bretagne », « Données flore IDF », « Données flore Limousin », « Données flore Martinique », « Données flore NPDC », « Données flore PACA », « Données flore Poitou-Charentes » et « Données flore Rhône-Alpes ».

Réalisation d’une analyse des liens entre sites

L’inventaire a permis de lister les différents sites sur la biodiversité en régions et au niveau national. Toutefois, il ne permet pas de comparer les sites, en terme d’importance, entre eux. En effet, la consultation du site, indicateur qui pourrait le montrer, n’est pas disponible et les indicateurs existants sont peu fiables. L’analyse des réseaux peut en revanche apporter une réponse complémentaire à cet élément. Elle permet en effet d’étudier les liens entre les sites Internet (Navicrawler) et de les cartographier afin de déterminer ceux qui apparaissent les plus importants (Gephi).

Cadre théorique de l’analyse des réseaux

Sur Internet, les sites sont très rarement en totale autarcie. Sur les pages de sites Internet, on trouve des liens hypertextes qui pointent vers une page dudit site (lien interne). Il peut aussi mener à un site Internet différent (liens externes ou sortants). Or, « les pages web reliées entre elles par des hyperliens correspondent à la définition la plus simple d’un réseau » , un ‘ensemble de liens et de relations entre les points’ (POIDEVIN 1999). En effet, il est probable qu’un site traitant de l’avifaune en Bretagne conseillera aux curieux d’aller consulter un autre site sur le même sujet. Si tous les sites suivent ce raisonnement, ce que l’étude a choisi de faire, les sites qui sont les plus conseillés devraient donc être logiquement les plus importants, les plus intéressants ou ceux établis comme une référence dans le domaine. Cette réflexion reprend la théorie des agrégats et la loi de puissance appliquée aux sciences humaines . En effet, selon la théorie des agrégats, « les sites d’un même domaine sont souvent connectés par des liens hypertextes et forment un agrégat centré sur une problématique » . Pour l’illustrer Gephi représente chaque site par un cercle (ou « nœud »), dont partiront ou arriveront des liens.
C’est de cette hypothèse que part la recherche, en souhaitant mettre en avant des agrégats sur la biodiversité. L’analyse de ces liens devrait donc permettre de localiser le ou les sites centraux (un « cœur ») ou des grappes de sites. On verra aussi apparaître les sites qui redistribuent des liens vers d’autres sites (les « hubs » ou « pivot ») et les sites dont beaucoup de liens externes pointent vers lui (« autorité »). Navicrawler et Gephi favoriseront une cartographie des agrégats entre des mêmes régions ou sur des domaines particuliers. Ceséléments devraient permettre de savoir si les sites sont bien reliés entre eux, si les sites et leurs concepteurs se connaissent et forment des communautés en ligne.

Méthodologie du Navicrawler

A partir de l’inventaire des sites relevés manuellement, sites nationaux d’une part, sites sub-nationaux d’autre part, les URL ont été analysées à l’aide d’une extension de Mozilla : le Navicrawler. Cet outil, téléchargeable librement , a été développé par le groupe WebAtlas et l’Institut des Etudes Politiques de Paris. Il détecte tous les liens hypertextes présents sur la page d’un site Internet et les garde en mémoire.
Ces liens sont aussi bien des liens internes qui mènent le visiteur vers d’autres pages du site, que des liens externes au site (liens sortants) conseillant à l’internaute d’aller consulter un autre site.
Le Navicrawler peut ouvrir automatiquement ces deux types de liens et « visiter » une page suivante. Sur cette dernière, il détecte à nouveau d’autres liens pour les visiter à leur tour et peut, en fonction des paramètres sélectionnés, recommencer presque à l’infini. Cette étape porte le nom de « crawl » (« ramper »), ce qui donne à l’outil son suffixe de « crawler ». L’utilisation du Navicrawler est une étape indispensable qui précèdel’analyse et la cartographie des liens entre les sites. En effet, c’est à partir de son crawl que Gephi, présenté dans la section suivante, peut établir un résultat visuel sous forme de graphe.
Le Navicrawler permet donc de passer sur d’autres pages du site Internet sélectionné (les pages internes). Mais il peut également, et c’est le but de cette étape, passer sur des sites externes, doncdes sites non-visités par l’utilisateur. Ces sites portent le nom de « sites prochains ». Il suffit donc de « crawler » l’inventaire pour obtenir tous les liens existant dans l’ensemble des sites Internet inventoriés, et non uniquement les liens présents sur une seule page du site Internet.
Le but final de cette étape est d’effectuer trois crawls : un premier pour les sites nationaux, un deuxième pour les sites sub-nationaux et un troisième pour l’ensemble de l’inventaire (sites nationaux et sub-nationaux). On obtient ainsi les liens existant entre les sites nationaux, ceux entre les sites sub-nationaux et les liens qui existent entre tous les sites proposant des données sur la biodiversité.
Le crawl du Navirawler demande d’élaborer une méthodologie et de faire un choix parmi les paramètres proposés. Aprèsessai, il a été choisi de faire commencer le crawl sur la page d’accueil du site. En effet, c’est celle qui ouvre un plus large éventailde pages, et donc potentiellement plus de sites prochains. Les critères du crawler ont été les suivants (voir copie d’écran) : à partir de la page d’accueil d’un site, le crawler doit inventorier sur trois pages successives tous les liens sortants. Si avant d’avoir effectué ces trois pages successives, il trouve un site prochain, il stoppe sa recherche.

Les sites de structures privées proposant des données en lien avec leur cadre d’étude

Bien que la législation Aarhus et INSPIRE ne s’applique pas aux structures privées, certaines choisissent néanmoins de diffuser leurs données. Elles ont été peu rencontrées durant l’étude, ce qui ne permet pas de les caractériser finement. Leur politique de diffusion semble en lien avec les problématiques des administrations publiques avec par exemple des données sur l’aménagement (IAU) ou dans le cas des fondations pour mieux se faireconnaître auprès du public.

Les sites des associations proposant des données selon leurs spécificités territoriales et leurs thématiques

Au sein des associations, prises au sens large, il existe également une grande multiplicité de cas. Toutes ne sont pas identiques, tant sur leurs territoires d’actions, que dans leurs buts vis-à-vis de la diffusion.
i) Il existe une multiplicité de petites associations (cent adhérents environ) recueillant des données, naturalistes pour la plupart, à un niveau régional, local, voire très localisées dans l’espace et diffusant ainsi les données qui ont été trouvéessur ce même territoire. Les plus petites n’ont pas de bases, mais notent le minimum d’information permettant d’établir une donnée naturaliste (AOMSL), ou une liste des espèces présentes sur leur territoire (GMHL). Ces deux types de données sont en effet faciles à diffuser.
ii) Pour les associations de taille moyenne, les problématiques sont les mêmes que pour les plus petites associations. Bien implantées sur le territoire, souvent avec un relais national, ellesmaîtrisent la technologie et il leur est possible d’utiliser une application Google Map sur laquelle elles font apparaître leurs données (Alsace Nature). Certaines décident d’opter pour une base de données permettant d’obtenir des données et en mêmetemps de les diffuser, proposant ainsi des données qui ne sont pas disponibles sur les sites des institutions publiques (VisioNature).iii) Les associations régionales, bien reliées entre elles au niveau national, peuvent également diffuser de l’information à cette échelle plus généraliste (ONFCS). Le processus de collecte de données est décidé à un échelon national et proposé au niveau local, souvent dans le cadre de programmes ou de problématiques à une échelle nationale. La base est alors un moyen efficace pour présenter l’information et d’en permettre l’interrogation par les personnes enquêtées aussi bien au niveau régional que national (VisioNature).

Les sites participatifs proposant des projets ciblés

Sites mis en place et gérés par une ou un groupe de personnes privées, les données présentes répondent à un besoin de partager des données (Deliry). Ils n’ont pas été étudiés pour le mémoire du fait des difficultés à rencontrer leurs acteurs et contributeurs, mais il semble s’agir de données difficiles à rassembler par une seule autorité publique, ou dont les contributeurs souhaitent pouvoir en débattre avec d’autres personnes.
On remarque donc à partir de ces informations une grande différenciation entre d’un côté les institutions proposant des données nationales en rapport avec l’aménagement du territoire, et de l’autre les associations s’occupant de données plus complexes à recueillir sur un territoire donné.

Richesse des sites Internet sur la biodiversité

En fonction des thématiques incluses dans les sites Internet, on peut établir un classement des sites en fonction de la diversité de leur contenu sur le modèle observé en 1.2.3.

Sites au contenu très spécialisé

Il s’agit de sites proposant un ou deux thèmes sur la biodiversité. Ils sont très spécialisés, présentent des données, des outils et des critères spécifiques à l’espèce. Il peut s’agir uniquement de données sur la flore (CHLORIS) ou, au sein des données sur la faune, uniquement d’un groupe (avifaune).

Sites diversifiés ou peu spécialisés

Sites proposant trois à cinq dimensions sur la biodiversité, ils peuvent se subdiviser en fonction de leur thématique.
i) Certaines bases de données ont été créées pour répondre à une problématique particulière, comme par exemple des questions d’aménagement du territoire : à cette fin, les données présentées sont généralistes et diversifiées pour prendre en compte le maximum de critères (IAU). La biodiversité y est présentée comme un critère parmi d’autres et la base n’est pas centralisée sur ce type de données, ni sur ses spécificités.
ii) La base de donnée peut également avoir un rôle de connaissance stricte sur un type de donnée, comme la faune (VisioNature). Le but de la base n’est plus alors simplement de centraliser la donnée, mais de permettre par la suite d’obtenir unautre type de document (atlas). iii) Certaines bases sont également plus spécifiques à certains espaces ou certains milieux (marais, mer). Pour garder les particularités d’études de ce dernier, la base est adaptée et personnalisée pour l’étude (IFREMER).

Sites très diversifiés

Il s’agit de sites prenant en compte plus de cinq dimensions de la biodiversité. Ils offrent une approche compète sur la biodiversité. L’emprise territoriale est alors plus réduite de manière à être exhaustive (Atlas des Parcs Nationaux).
Les données présentes sur le site permettent de classer son statut : référence dans un domaine, il a de fortes chances de proposer toutes les informations sur une problématique précise. Diversifié, il permet de réunir de manière pratique le plus d’informations possible en un seul site.

Types de validation des données des sites

Afin qu’elles puissent être intégrées à des documents légaux (type ZNIEFF ou Natura 2000), les données doivent être validées par une autorité compétente. C’est la présence de cette validation qui peut permettre de classer les données.

Sites aux données non-validées

Sur ces sites, les données n’ont pas été validées ou la validation est uniquement interne et donc non reconnue au niveau national. L’étude y intègre les sites participatifs, même si la présence de spécialistes peut éviter les erreurs (Telabotanica). Par défaut, l’inventaire y inclut les sites dontle processus de vérification n’est pas inscrit sur le site Internet.

Sites aux données validées par le Conseil Scientifique

Régional du Patrimoine Naturel (CSRPN)

Il s’agit de sites dont les données ont été validées par une autorité régionale compétente composée de personnalités reconnues dans les domaines dédiésdu conseil. Les données acquièrent ainsi une plus grande reconnaissance.

Sites aux données validées par le Muséum d’Histoire Naturelle de Paris (MNHN)

Il s’agit de sites dont les procédures, les méthodes de prélèvement ou les zonages réglementaires ont été vérifiés, acceptés et reconnus par le Muséum (INPN).
La validation permet à la donnée d’être légitimée auprès des autorités compétentes et donc de pouvoir être intégrée dans des processus d’étude et de protection. Ce critère doit permettre de savoir comment la donnée pourra être intégrée aux futures études.
Ces différents moyens de caractériser les données et les bases de données permettent de mieux rendre compte de leur diversité et de leurs buts. Ils doivent permettre de classer les sites Internet entre eux et de les décrire de manière plus facile et rapide.

La variation spatiale de l’offre de données en accès libre sur la biodiversité : premiers constats par analyse cartographique

L’inventaire des sites Internet a permis dans un premier temps de lister les différentes sources d’informations en accès libre sur Internet sur la biodiversité. En premier lieu, il faut tout d’abord noter que le tableau comparatif effectué se fonde sur des observations de sites Internet. Si une donnée est marquée comme présente, c’est donc qu’elle a été vue sur le site au cours de la recherche. Toutefois il est possible que des données n’aient pas été repérées, à cause de la taille du site, ou de leur présence dans des onglets moins liés à la question de la biodiversité et de l’environnement en général. L’inventaire a également été effectué à un instant précis : la version finalisée a été faite au mois d’avril 2011 et les facteurs décrivant les sites recherchés fin mai-début juin 2011. Il est donc possible qu’avec l’apparition de nouvelles bases, ou de l’enrichissement des anciennes, les résultats deviennent rapidement obsolètes. Les chiffres avancés doivent donc être analysés en tenant compte de ce biais. L’inventaire réalisé permet d’effectuer un bilan statistique afin de caractériser de manière générale les données. Ces aspects généraux prennent notamment en compte l’emprise géographique des données fournies, les auteurs des données, le type de biodiversité diffusé, le format des données, leur mode de validation et leur niveau d’interopérabilité. Ces éléments seront décrits à partir de cartes commentées et accompagnées d’hypothèses permettant d’expliquer la situation observée.
Ces deux cartes quantitatives de taux permettent de comprendre les types de formats proposés par les deux principaux diffuseurs de données : les associations et les institutions publiques. Ces premières proposent en majorité des données dans des formats préexistant à l’avènement de l’interactivité sur Internet (cartes, inventaires…), notamment en Limousin (100%), en Alsace et en PACA. Au contraire, les formats apparus récemment se développent sur des sites localisés en IDF, en Rhône-Alpes et en Bourgogne. Les sites des autres régions en proposent une part faible (15%). Pour les formats des données contenus sur les sitesdes institutions publiques, même si les formats préexistants restent dans la plupart des régions majoritaires comme en IDF, en Limousin ou en Bretagne, leur part est beaucoup plus importante que pour les associations (40%, voire 50% pour des régions comme l’Alsace et la Bourgogne). La région Rhône-Alpes (69%), NPDC (60%) et Martinique (61%) sont les régions offrant le plus de sites avec ces nouveaux formats numériques. Ces éléments pourraient être expliqués par des problématiques de coûts, les nouveaux formats numériques demandant un lourd investissement que pourraient se permettre les régions, mais qui pourrait freiner les associations au budget plus restreint. Leur budget plus important dans les régions plus peuplées et plus dynamiques sur le sujet de la biodiversité permettrait d’apporter des éléments de compréhension. Ces différences interrégionales des associations pourraient être aussi dues au temps de la diffusion de l’innovation, l’IDF et le Rhône-Alpes pouvant être plus en avance pour ces raisons. Les différences entre les institutions publiques pourraient s’expliquer par une volonté politique plus forte dans certaines régions par rapport à d’autres, ou la mise en place d’outils plus récents.

Quelques bases emblématiques des initiatives de mise en accès libre

Pour illustrer la mise en place des données sur l’environnement, le choix a été fait de se recentrer sur les bases de données elles-mêmes. En effet, ce sont sur ces sites proposant des bases de données que l’on peut trouver le plus facilement unaperçu de la disponibilité de l’information.

ECOMOS : une base d’une institution privée sur les paysages en IDF

Créée en 1960 pour, comme le précise M.CAUCHETIER chargé d’étude à l’IAU, « répondre à un besoin particulier et spécifique à la région Ile-de-France, l’Institut d’Aménagement et d’Urbanisme est chargé de préparer les politiques d’aménagement régional » . Bien qu’ayant de nombreux liens avec les institutions publiques, c’est un organisme privé, donc non concerné directement par la directive INSPIRE et la convention d’Aarhus. Dans le prolongement de ses études sur l’occupation et la maîtrise du sol, l’IAU propose des couches d’informations environnementales et, depuis 2004, une base sur les paysages : ECOMOS. A ce titre, l’institut est un exemple original en France. La mise en ligne des couches d’informations à titre gratuit a été choisie après une discussion interne à l’IAU pour une diffusion auprès du grand public, des chercheurs, des enseignants et des étudiants. Une entrée privée dans la base est également disponible pour les professionnels. La base de l’IAU propose de très nombreuses données concernant l’aménagement, ce qui comprend des éléments sur l’environnement. Plus particulièrement, la base propose l’évolution de l’occupation du sol sur plusieurs années, l’occupation du sol en milieu naturel (ECOMOS), la diversité écologique et sa préservation (TVB). « ECOMOS a été mise en place en complément d’autres bases urbaines, afin de prendre en compte les aspects environnementaux » . La base a pris comme document de départ les Modes d’Occupation du Sol (MOS) qui sont approfondis à l’aide d’images satellites et de photographies aériennes afin d’obtenir une vue cohérente. Pour représenter les différents paysages, l’IAU a du adopter une typologie, et a choisi de reprendre celle de CORINE Land Cover. En effet, cette dernière nomenclature, issue des travaux du programme européen, est bien adaptée aux images satellites : ECOMOS utilisant ce même support, la typologie a été reprise et aménagée pour la base.
Les couches d’informations mises en ligne sont présentées en web-mapping. L’application s’ouvre sur un catalogue qui donne un aperçu de toutes les couches disponibles. Un bandeau déroulant à gauche classe les différentes cartes selon leur groupe. Il est proposé de choisir une carte avec une description courte, facilement compréhensible pour le néophyte et accompagnée d’un aperçu. Ce menu est toujours consultable et l’on y trouve les conditions d’utilisation, le guide d’utilisateur et les dernières améliorations dans un but d’aide à la consultation.

EIDER de SOeS Environnement : une base statistique du Ministère de l’Environnement

Le SOeS Environnement est un service de statistiques rattaché au Ministère de l’Environnement et chargé de produire, comme l’INSEE, des statistiques sur différentes thématiques, notamment sur la biodiversité . Signe du dynamisme et des évolutions en cours, lesite du SOeS a été totalement refondu au cours du mois de juin 2011. Quatre bases sont proposées en consultation : EIDER, l’occupation du sol CLC, Géoïdd France et Géoïdd littoral. L’étude se propose d’étudier en particulier la base de données régionale EIDER. Elle propose des tableaux détaillés, des portraits régionaux et des séries longues de données.
Le programme Ensemble Intégré des Descripteurs de l’Environnement Régional (EIDER) existe depuis 1994 avec pour but d’offrir « une base de données élémentaires, facilement mobilisables par un dispositif de requêtes simples […] (rassemblant) les données statistiques environnementales les plus pertinentes disponibles aux niveaux régional et départemental » . La base est organisée en plusieurs onglets. Le premier décrit ce qu’EIDER propose à la consultation, un deuxième le sommaire et les trois derniers onglets les différents types d’accès possibles aux données. La base offre dans la thématique de l’environnement des données sur l’occupation du territoire et les paysages (occupation et changement du sol avec CLC), sur la forêt (surfaces de terrain boisé, surfaces forestières, surface selon l’essence dominante…) et en grande majorité des données législatives sur la flore, la faune et les écosystèmes terrestres et marins (ZNIEFF, ZICO, Natura 2000, zones humides d’importance majeure, plans de chasse du grand gibier, réserves de chasses, indice STOC des citoyens, statut de la faune protégée…). Pour chaque type de donnée, il est possible d’obtenir un tableau détaillé ou une série longue que l’utilisateur génère à partir d’un thème, complété parfois d’un sous-thème, puis une thématique d’un tableau et une région. On obtient automatiquement un tableau que l’on peut exporter enformat .xls ou .csv. Ces données sont directement exploitables par des statisticiens, des cartographes, des gestionnaires et des politiques.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction 
Questionnement 
Hypothèses
Etat de l’art
Présentation de la démarche d’ensemble de la recherche
1. Une première approche des bases de données en accès libre : l’inventaire et son analyse 
1.1. Méthodologie de l’inventaire et des outils d’analyse
1.1.1. Réalisation de l’inventaire par mots-clés sur un moteur de recherche
1.1.2. Réalisation de l’inventaire au moyen de critères prédéfinis
1.1.3. Réalisation d’une analyse des liens entre sites
1.2. Typologie des sites enquêtés
1.2.1. Variables descriptives des sites enquêtés
1.2.2. Variable d’unité géographique des sites Internet
1.2.3. Variable de fonctionnalités des sites Internet
1.2.4. Richesse des sites Internet sur la biodiversité
1.2.5. Types de validation des données des sites
1.3. La variation spatiale de l’offre de données en accès libre sur la biodiversité : premiers constats par analyse cartographique
1.4. Analyse des réseaux de sites de données étudiés sur la biodiversité
1.5. Quelques bases emblématiques des initiatives de mise en accès libre
1.5.1. ECOMOS : une base d’une institution privée sur les paysages en IDF
1.5.2. EIDER de SOeS Environnement : une base statistique du Ministère de l’Environnement
1.5.3. Bourgogne Base Fauna : une base régionale sur les espèces
1.5.4. Le site et la base SIGALE : une offre de données multiple sur la biodiversité
1.5.5. SILENE : une base de recherche sur la biodiversité ouverte sur l’interopérabilité
2. Approche approfondie des bases de données par rencontre des diffuseurs : éléments d’explication de constitutionet de variation géographique
2.1 Présentation des entretiens
2.2. Constat général
2.3. Les contraintes liées à l’inventorisation naturaliste : une première ébauche des différences de disponibilités de données entre les régions
2.4. Le processus de diffusion des données : principaux facteurs de diffusion
2.5. Logiques de l’hétérogénéité spatiale de la disponibilité des données en accès libre : la vision des producteurs de base
2.6. Logiques contemporaines de construction de bases en accès libre à travers deux exemples
2.6.1. Le VisioNature : une base de données participative aux objectifs ambitieux
2.6.2. CARMEN : une base de données nationale du Ministère sur l’environnement
2.6.3. Premier bilan : les facteurs de succès d’unebase
2.7. Les usages des données en accès libre sur la biodiversité : constat préliminaire
Conclusion 
Bibliographie
Table des matières

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *