Construction de bases de données pour entraîner et tester des algo- rithmes de Deep Learning

Télécharger le fichier pdf d’un mémoire de fin d’études

Vulnérabilité des poissons coralliens aux changements globaux

Alors que les coraux sont nécessaires au développement, à la richesse et à la biomasse des communautés de poisson coralliens, cet habitat subit de nombreuses perturbations dues aux changements globaux [Gordon et al., 2018] et on estime qu’environ 75% des récifs coralliens mondiaux sont menacés [Burke et al., 2011]. Ces changements globaux concernent en particulier les vagues de chaleur (e.g. El Niño) qui affectent durablement les récifs coralliens [Graham et al., 2011] [Hughes et al., 2017] [Leggat et al., 2019]. En 1998, 16% des récifs mondiaux ont été détruits par des épisodes de blanchissement dus à une forte augmentation de la température de l’eau de surface [Dimitrov, 2002]. Ainsi uujourd’hui, 83% des récifs coralliens de l’Indo-Pacifique ont été exposés à un blanchissement depuis 2014 [Darling et al., 2019]. Ces épisodes pourraient devenir annuels avant 2050 [Cesar et al., 2003], dépassant de loin la capacité de résilience des récifs coralliens. Lors de leur synthèse, [Belwood et al., 2004] présentent une analyse de l’état de l’art du sujet, et mettent en avant la diminution de la couverture corallienne en corrélation avec l’augmentation du nombre de coraux touchés par des épisodes de blanchissement et les invasions d’Acanthaster pourpres (Acanthaster planci), une espèce d’étoile de mer se nourrissant quasi exclusivement de corail [Bellwood et al., 2004] (Fig.1.3).
Les causes de ces dégradations des récifs sont multiples. Localement, le tourisme non contrôlé [Grigg, 1991], la pollution [Johannes, 1975], et les maladies [Peters, 2015] affectent les structures coralliennes, mais aussi les communautés de poissons, entraînant une diminution de la biomasse et la disparition des fonctions écologiques remplies par certaines espèces [Bellwood et al., 2011] [Cinner et al., 2018] [Edgar et al., 2018] (Fig. 1.4).
Au delà de la destruction des habitats des poissons récifaux, la sur-pêche, les méthodes de pêche destructives et le braconnage [Robinson et al., 2017] [Roberts, 1995] affectent directement les communautés de poissons.
De nombreuse études démontrent la relation entre l’augmentation de la population humaine (représentée par la « gravité » sur (B), la gravité prenant en compte la taille de la population humaine et sa distance au récif) et la diminution de certaines fonctions écologiques (comme la bio-érosion, effectuée par les poissons perroquets (A) [Bellwood et al., 2011]) ou de la biomasse ((B) [Cinner et al., 2018], en zone protégée à gauche, en zone de pêche restreinte au centre, en zone de pêche libre à droite)). D’autres études démontrent l’impact des pressions de pêche au cours du temps, en particulier sur les gros individus (C) [Edgar et al., 2018], montrent les tendances sur les individus >20 cm, et en particulier sur les espèces exploitées (D) (la tendance général étant montrée en rouge).
L’ensemble de ces activités humaines entraînent une chute importante du nombre d’es-pèces de coraux et de poissons coralliens, amenant à la disparition de certaines fonctions clefs nécessaires à la résilience et à la survie des récifs [D’agata et al., 2014]. Récemment, les perturbations subies par les écosystèmes marins et en particulier les écosystèmes ré-cifaux s’accélèrent [Butchart et al., 2010] [Teichert et al., 2017] [Hoegh-Guldberg et al., 2017] [Weijerman et al., 2018] [Hughes et al., 2018] [Sully et al., 2019] et appellent à un effort de surveillance sans précèdent [Veitch et al., 2012] [Hughes et al., 2017]. L’utilisation de protocoles d’observations des écosystèmes récifaux ponctuels (spatialement et tempo-rellement) ne permet plus de suivre le rythme des perturbations qu’ils subissent. Il est aujourd’hui important d’adapter nos méthodes de suivi et d’analyses des écosystèmes pour étudier leurs dynamiques à haute fréquence temporelle et spatiale.
Ces communautés doivent être étudiées comme un ensemble d’espèces interagissant entre elles et avec leur environnement y compris l’habitat et les pressions humaines.
Finalement, la structure des communautés de poissons est aussi largement utilisée comme indicateur de l’état des écosystèmes coralliens dans leur globalité, que ce soit la biomasse [McClanahan, 2018] ou des espèces particulières comme les herbivores [Goatley et al., 2016].

Méthode de recensement des communautés de poissons

L’étude de la structure d’une communauté nécessite de recenser l’ensemble des individus qui en font partie. Il existe plusieurs méthodes de recensement utilisées pour analyser la dynamique de ces communautés de poissons : les méthodes destructives, les méthodes visuelles réalisées en plongée, et les méthodes visuelles assistées par caméras (le tableau 1.1 récapitule l’ensemble des méthodes décrites dans la suite du chapitre et leurs limites). Le recensement d’une communauté de poisson se divise en deux phases : la première consiste en l’acquisition de la donnée brutes, et la seconde est dédiée au comptage et à l’identification des poissons présents. Certains recensements effectuent les deux phases simultanément (comme les méthodes visuelles réalisées en plongée), et d’autres séparément (par exemple les méthodes destructives et les méthodes assistées par caméras).

Apprentissage automatique et réseaux de neurones

L’apprentissage automatique (ou Machine Learning, ML) est le nom donné à l’ensemble des méthodes informatiques permettant à une machine d’apprendre à effectuer une tâche [Nasrabadi, 2007]. Cette tâche peut être une action de classification de sons [Maglogiannis et al., 2009] ou d’images [Millán et al., 2018], un déplacement physique [Pratihar et al., 1999], une action de communication [Simeone, 2018]… L’ensemble de ces méthode ont pour but de créer un modèle, c’est a dire un ensemble de paramètre permettant d’effectuer une tâche.
Lors des tâches de classification d’images, on utilise généralement 3 types de bases de données pour entraîner et évaluer les approches ML :
• La base d’entraînement (ou d’apprentissage), permet d’entraîner le modèle, c’est à dire permet à l’algorithme de modifier les paramètres du modèle pour l’adapter à une tâche.
• La base de validation permet d’évaluer le modèle durant l’entraînement, et ainsi de pouvoir contrôler son efficacité et éventuellement intervenir (arrêter l’entraînement, modifier des paramètres manuellement).
• La base de test permet d’évaluer le modèle une fois l’apprentissage terminé. Ce test doit se rapprocher de conditions réelles d’utilisation, car il est la dernière étape avant l’application du modèle à des tâches réelles.
Pour la classification d’images, l’apprentissage est généralement supervisé, c’est à dire que l’on connaît à l’avance les différentes classes auxquelles appartiennent les objets que l’on va identifier (ici des espèces de poissons). L’apprentissage basé sur des caractéristiques va se dérouler en 2 temps. Dans un premier temps, chaque objet utilisé lors de l’apprentissage (des images dans le cas de la classification d’images), va être transformé en une paire de variables. Chaque paire est constitué d’un vecteur caractérisant l’objet (features vector ) et d’un label qui caractérise la classe. Ces caractéristiques peuvent être choisies manuellement par l’humain (dans le cas de l’étude de poissons, différents traits peuvent être utilisés, comme la taille de l’œil, la distance entre les nageoires, ou encore leur texture [Spampinato et al., 2010]…) ou calculées automatiquement. Un certains nombre de vecteurs de description ont été définis, par exemple les descripteurs SIFT (Scale-invariant feature transform) [Matai et al., 2012] [Shiau et al., 2012], permettant de décrire une image grâce à des points d’intérêts, shape context (SC) [Rova et al., 2007], basé sur la description du contour des objets ou encore “Histogram of Oriented Gradient” (HOG) [Zhu et al., 2006], permettant lui aussi de décrire avec précision les contours et les formes caractéristiques d’un objet).
L’objectif de l’algorithme d’apprentissage est d’apprendre à associer un label aux vecteurs qui lui, sont associés [Nasrabadi, 2007], et à discriminer les objets d’une classe par rapport à ceux des autres classes. Une fois l’apprentissage terminé, le modèle obtenu peut être utilisé pour prédire la classe d’un objet non labelisé. Pour cela, le vecteur caractéristique de cet objet est calculé, puis le modèle fournit une décision (le plus souvent un score) permettant d’associer une classe à ce vecteur.
Un certain nombre d’approches par apprentissage automatique ont été utilisés lors des tâches de classification d’images de poisson, ainsi que de la localisation d’individus dans des images, parmi lesquels on peut citer les séparateurs à vastes marges (SVM), les arbres de décisions et forêts aléatoires, les méthodes par plus proches voisins, et les réseaux de neurones [Kotsiantis et al., 2007].
Les séparateurs à vaste marges (support vecteur machine, SVM) [Joachims, 1998] [Blanc et al., 2014] cherchent à séparer les différentes classes en maximisant la marge, c’est à dire la distance entre la frontière d’une classe et les plus proches individus des autres classes.
Exemple de séparation d’un espace 2D grâce à un algorithme de type SVM. Les axes x et y représentent l’espace de classification (de vecteurs caractéristiques à 2 valeurs). Le SVM crée ensuite des séparations (lignes pleines rouges/bleu) afin de maximiser les marges (lignes interrompues), c’est à dire la distance entre les deux classes.
Cette méthode est très utilisée, et particulièrement performante pour les grands vecteurs.
Les arbres de décision [Safavian and Landgrebe, 1991] sont constitués d’un ensemble de nœuds. Ces noeuds sont distribués sur plusieurs couches. Chaque nœud d’une couche C est relié aux nœuds de la couche suivante C+1 par des liaisons, appelées “branches”. Chaque noeud effectue un test sur le vecteur d’entrée. Chaque branche correspond à un résultat du test effectué par le noeud. Finalement, chaque “feuille”, ou noeud de la dernière couche, correspond à une sortie attendue par l’utilisateur.
Les forêts aléatoires d’arbres de décisions, ou random forests [Breiman, 2001] sont des ensemble constitués de plusieurs arbres de décision. Au lieu d’apprendre toutes les caractéristiques discriminantes fournis par l’utilisateur, chaque arbre apprend sur un sous-échantillon aléatoire de ces caractéristiques. Ainsi, chaque arbre se spécialise sur une tâche particulière, rendant l’ensemble plus efficace. Une fois l’apprentissage terminé, chaque arbre effectue une classification. Cette classification est ensuite considérée comme un vote, et la décision prise par l’algorithme est celle du vote majoritaire.

Application de l’apprentissage profond à la localisation d’objets dans des images

Là ou les méthodes décrites précédemment effectuent une classification, c’est-à-dire attribuent une classe unique à une image, d’autres algorithmes, eux aussi basés sur les CNNs, permettent de détecter plusieurs objets d’intérêt dans une image (phase de détec-tion/localisation), puis d’attribuer à chacun de ces objets une classe (phase d’identification). Les CNNs dédiés à la localisation et à l’identification sont divisés en deux catégories : les al-gorithmes qui effectuent la localisation et l’identification conjointement (one-step algorithms ou one-shot), et ceux qui l’effectuent en deux temps successifs (two-step algorithms).
Les architectures one-step (YOLO, SSD, MobileNet, RetinaNet) proposent des temps de calcul largement inférieurs aux architectures two-step (R-CNN, Faster R-CNN…) [Redmon et al., 2016] [Shafiee et al., 2017] [Liu et al., 2016b] mais présentent cependant de moins bons résultats. Lors de leur étude comparative, [Huang et al., 2017] montrent un temps de calcul inférieur d’un facteur 3.5 pour l’architecture SSD par rapport à l’architecture Faster R-CNN et une utilisation de mémoire inférieure d’un facteur 10, mais une précision moyenne (mean Average Precision, mAP), une métrique classique d’évaluation des performances d’un réseau de localisation, inférieure d’un facteur 1.5 (étude réalisée sur le jeu de données COCO, un benchmark utilisé pour les tâches de localisation et d’identification [Lin et al., 2014]). Lors d’une étude préliminaire, nous avons pu corroborer ces résultats (Fig. 1.14), dans laquelle nous avons constaté qu’un modèle créé à partir d’une architecture Faster R-CNN obtenait de meilleurs résultats que ceux créés grâce aux architectures SSD et RetinaNet avec le même entraînement. Notre étude ne portant pas sur des cas où la puissance de calcul et le temps de traitement étaient limités (pas de traitement en temps réel), nous nous sommes exclusivement intéressés aux architectures en 2 temps qui seront détaillées ci dessous.

Construction de bases de données pour entraîner et tester des algorithmes de Deep Learning. Acquisition de données, campagnes de terrain, et annotation des bases de données.

L’acquisition d’images pour la construction de bases de données a représenté une partie non négligeable de cette thèse. L’ensemble de nos travaux reposent sur des modèles créés par apprentissage, ce qui implique que la fiabilité et la robustesse du modèle reposent à la fois sur les caractéristiques du modèle (architecture, type d’apprentissage, etc) et sur les données d’entraînement. De plus, les bases de données de test doivent elles aussi refléter des cas d’applications réalistes aussi complets que possibles.

Cas d’étude principal : Mayotte

Durant la thèse, la majorité de nos expériences (Section 2.2) ont été réalisés à Mayotte, un département d’outre-mer Français situé au nord du canal du Mozambique, au sein de l’archipel des Comores (Voir Fig. 2.1).
La surface du lagon (1500km2 ), sa surface récifale, sa double barrière de corail (externe et interne), ainsi que sa richesse spécifique (760 espèces de poissons dont 80% inféodées aux coraux [Wickel et al., 2014]), en font un cas d’étude particulièrement intéressant. En effet, les études de suivi de l’évolution des récifs peuvent être effectuées à travers un large panel de communautés de poissons, mais aussi d’habitats et de conditions (moment de la journée, météo). On peut ainsi vérifier la robustesse des méthodes employées à l’ensemble des variations décrites précédemment. Mayotte présente aussi une grande diversité au niveau de la faune présentes sur ses récifs avec respectivement 360 genres et 118 familles de poissons, ainsi que la présence de nombreuses espèces emblématiques (une vingtaine de mammifères marins, 5 espèces de tortues marines). De plus, l’île bénéficie d’une certaine attention scientifique, en terme de campagnes de suivi de sa biodiversité et de ses écosystèmes : IFRECOR (Initiative française pour les récifs coralliens) depuis 2000, ORC (Observatoire des récifs coralliens) depuis 1998, après un épisode de blanchiment traumatisant pour le récif, Reef Check depuis 2002. Mayotte profite aussi de suivis spécifiques de certaines zones d’intérêts particulières tel que le suivi de l’aire marine protégée (AMP) de la « passe en S », qui étudie l’intérêt de la protection de la zone sur sa communauté de poissons depuis 1995, ou le suivi de l’évolution des récifs coralliens de la réserve naturelle de l’îlot Mbouzi depuis 2010. La création du Parc marin, englobant l’ensemble du lagon de Mayotte, est une initiative représentative de l’envie de contrôler, comprendre et suivre l’impact des pressions humaines et naturelles exercées sur la biodiversité et les écosystèmes récifaux
à grande échelle. Tous ces efforts représentent cependant des suivis ponctuels sur des zones restreintes, qui pourraient être remplacés par un suivi généralisé sur l’ensemble du lagon. Lors de notre étude, nous nous sommes intéressé aux espèces et aux familles les plus présentes sur les récifs de Mayotte (Pomacentridae, Acanthuridae, Chaetodontidae, Lethrinidae, Balistidae, Monacanthidae, Serranidae, Labridae).

Aller plus loin que les bases de données existantes

Au départ de nos travaux, la seule base de données publique utilisée comme bench-mark pour la localisation et l’identification de poissons était mise à disposition par fish4knowledge 1. Les 112 téraoctets de données de cette base proviennent de captures vidéos de 4 sites de Taiwan enregistrées entre 2010 et 2015. fish4knowledge a en par-ticulier mis a disposition un jeu de donné pour l’identification d’espèces de poissons, contenant 27370 annotations manuelles appartenant à 23 espèces de poissons, issues de ces vidéos [Boom et al., 2012a] [Boom et al., 2012b]. Cependant, pour des raisons de volume de données et de technologies, ces vidéos étaient limitées à des tailles de 320*240 pixels et 640*480 pixels, et hautement compressées, comme illustré en Fig. 2.2. Nous avons donc décidé de constituer notre propre base de données pour plusieurs raisons :
• Tout d’abord, pour travailler sur des vidéos HD, ce qui nous permet d’avoir d’avantage d’informations à traiter lors de nos analyses d’images (un nombre de pixels plus important (Fig. 2.3)), et une meilleure qualité de représentation des poissons à l’image.
• Ensuite, pour maîtriser l’ensemble du pipeline d’analyse, depuis la capture vidéo jusqu’aux analyses statistiques. Ainsi, nous pouvons modifier chaque partie du processus afin d’en améliorer le résultat final.

Zoom sur l’impact de l’augmentation de la résolution sur l’aspect des individus.

L’augmentation de la résolution des vidéos nous permet d’exploiter davantage de détails présents sur les individus (texture, motifs, couleurs). (A) présente une région correspondant à 1/10ème d’une image extraite d’une vidéo du jeu de données Fish4Knowledge, (B) une région de même proportion issue d’une de nos vidéos.
Pour l’acquisition des vidéos, nous nous sommes orienté vers des caméras compactes de type “action caméra”. Ces caméras sont largement utilisées pour réaliser des enregistrements sous-marins [Boada et al., 2015] [Letessier et al., 2015] [Pergent et al., 2017] [Sirjacobs et al., 2017], terrestres [McGregor et al., 2015] [Alarcón-Nieto et al., 2018]) ou aériens [Koh and Wich, 2012] [Christie et al., 2016]. Elles permettent d’enregistrer en Full HD (1920×1080 pixels) tout en étant étanches jusqu’à 40m de profondeur grâce à des caissons et offrant une bonne autonomie (1h30). Bien qu’il existe d’autres types de caméras sous-marines permettant d’enregistrer avec une meilleurs qualité [Ho, 2007] l’utilisation d’action caméra permet de nombreux déploiements à moindre coût.
Nous avons utilisé deux types de systèmes d’enregistrement pour récolter nos données. Les vidéos étant réalisées avec des appareils posés sur un substrat (coraux, fonds marins. . . ), les 2 systèmes sont composés d’une ou de plusieurs caméras et d’un support.
• Le premier système est composé d’une ou de plusieurs caméras (GoPro hero 4 et GoPro hero 5) et d’un monopode ou d’un trépied lesté (Fig. 2.4 (A)). C’est un système de caméra fixe, RUV.
• Le deuxième système est composé d’une ou plusieurs caméras, d’un support, et d’un appât [Colton and Swearer, 2010] [Wraith et al., 2013] (Fig. 2.4 (B). C’est un système de caméra fixe appâtée, BRUV.
Ces systèmes ont été utilisés pour acquérir des vidéos sur les sites de Mayotte, Mada-gascar, Moorea, Martinique, Méditerranée, et Mer Rouge. Ils ont été déposés entre 1m et 40m de profondeur, en apnée, en plongée en scaphandre autonome, ou depuis un bateau dans le cadre des systèmes appâtés.

Campagnes et acquisitions de données vidéos

Les données utilisées pendant la thèse proviennent de plusieurs campagnes et missions décrites ci-dessous.
Nous avons d’abord utilisé des vidéos enregistrées de manière opportuniste entre 2014 et 2016 par Sébastien Villéger et Thomas Claverie, sur différents sites de Mayotte. Ce jeu contient 102 enregistrements vidéos réalisés en RUV statique (pour une durée totale de 20h) toutes réalisées entre 1 et 30 mètre de profondeur, sans appâts. Ce sont les premières données que j’ai eu à disposition et qui ont été utilisées pour nos premiers travaux (voir chapitre 3).
Deux campagnes ont été réalisées à Mayotte en 2017. La première a été réalisée du 9 au 12 Octobre 2017 par Thomas Claverie et moi. Nous avons posé des caméras sur récif frangeant de la zone nord de la Pointe de Bouéni (voir Fig. 2.5). Nous avons effectué une pose de caméra RUV entre 1 et 3 mètres de profondeur sur 7 points séparés de 200 mètres. Nous avons alterné les vidéos « courtes » d’une heure trente et les vidéos « longues » de 4 heures. Pour chaque point GPS, nous avons tourné 3 vidéos courtes ou 1 vidéo « longue » par jour, pour un total de 12 vidéos courtes et 3 vidéos longues par jour. Les vidéos longues permettent d’évaluer les changements de la communauté de poissons pendant une longue période sans perturbations extérieures dues au plongeur, et les vidéos courtes permettent de changer l’angle ou la direction de la caméra, et d’enregistrer ainsi plusieurs séquences différentes pour un même point GPS. Au total, nous avons récolté 41 vidéos le long du récif frangeant de Bouéni, pour une durée totale de 87 heures.
La seconde campagne a été réalisé du 13 au 18 Octobre 2017. Elle a été menée par Conrad Speed, Mark Chinkin, Phillip John Mcdowall et Thomas Claverie, dans le cadre de l’initiative Global FinPrint 2. Cette initiative, lancé en 2015, a pour but d’étudier la présence, le déplacement et le comportement des espèces de requins et de raies. Cette campagne nous a permis de récolter 125 heures de vidéo sur le récif extérieur de Mayotte, étalés entre 124 points GPS (Fig.2.5), entre 10 et 40 mètres de profondeur. Les systèmes étaient cette fois ci équipés d’appâts (BRUVs simples caméras et stéréo), permettant d’attirer différentes espèces par rapport à celles présentes dans les jeux de données précédents. En effet, la campagne visant principalement à recenser les espèces de requins et de raies, les protocoles d’acquisition se font grâce à des caméras appâtées afin d’attirer et d’agréger le maximum d’individus [Brooks et al., 2011] [Goetze and Fullwood, 2013].
Afin de tester nos méthodes dans différents contextes, nous avons aussi récolté des données dans d’autres régions de l’océan Ouest Indien (Europa), mais aussi dans l’océan Pacifique (Moorea), dans la mer des caraïbes (Martinique), en mer Méditerranée (Crête, Israël) et en Mer Rouge (Israël). Ces données nous ont permis de créer des jeux de tests ex-trêmement différent des jeux d’entraînement, en terme d’environnement, d’espèces/familles présentes, de turbidité, de conditions climatiques…

Création d’un outil pour constituer nos bases de données d’images

L’annotation manuelle des poissons dans les vidéos collectées grâce aux différentes campagnes en mer est le principal goulot d’étranglement en terme de qualité et de quantité de travail à fournir pour l’entraînement et la validation des algorithmes de Deep Learning, en particulier des réseaux de neurones convolutifs (CNNs). Le but de nos CNNs est soit :
1) de localiser et d’identifier des poissons dans des images sous-marines, ou 2) d’identifier des poissons une fois qu’ils ont été sélectionnés à l’aide de boites englobantes (bounding boxes) par un humain. Dans les deux cas, l’algorithme a besoin d’une base d’entraînement, c’est à dire de nombreuses images d’individus appartenant aux différentes classes qui vont être reconnues par le modèle. Ces classes sont généralement les espèces, mais peuvent être moins précises (famille, genre) ou plus précises (sexe, âge), si le dimorphisme le permet. Ces images doivent être sélectionnées et annotées manuellement par des experts grâce à un logiciel d’annotation.
Logiciels d’annotation d’images sous-marines existants
Les logiciels d’annotation sous-marine (Marine image annotation software, MIAS) permettent d’obtenir deux types principaux d’annotation : Le premier est l’annotation grâce à des marqueurs (points) dans la vidéo. Ces marqueurs fournissent des informations sémantiques (nombre d’individus, d’espèces, tailles, etc), qui seront ensuite utilisés lors d’analyses plus poussées (analyses des communautés, comptage d’individus…). ClickPoint [Gerum et al., 2017] et VIDLIB [Marcon et al., 2015] par exemples sont conçus pour afficher et annoter des séries temporelles, et EventMeasure 3, ou VidSync 4, permettent à leurs utilisateurs d’annoter des vidéos stéréos. Le deuxième type d’annotation permet de construire des bases de données d’images utilisées pour entraîner les algorithmes de Deep Learning. Pour ce faire, l’annotation consiste à entourer les objets d’intérêts (Object Of Interest, OOI) grâce à une boite englobante rectangulaire ou polygonale. Les objets d’intérêts seront ensuite extraits de l’image principale, et puis stockés. Nous appellerons ces images spécifiques contenant 1 et 1 seul objet d’intérêt « vignettes ». Certains outils grand public existent (Dataturks par exemple 5), mais leur architecture globale ne correspond pas aux attentes demandées pour un travail scientifique en terme de métadonnées, de traçabilité des données, ou de structuration des données. De nombreux outils ont été développés spécifiquement pour annoter des images ou des vidéos sous-marines depuis les années 2000 [Gomes-Pereira et al., 2016].

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction 
1.1 Importance des récifs coralliens et de leur communautés de poissons
1.2 Vulnérabilité des poissons coralliens aux changements globaux
1.3 Méthode de recensement des communautés de poissons
1.4 Apprentissage automatique et réseaux de neurones
1.5 Apprentissage profond ou Deep Learning
1.6 Application de l’apprentissage profond à la localisation d’objets dans des images .
1.7 Métriques d’évaluations .
1.8 Problématiques de la thèse .
1.9 Objectifs et structure de la thèse
1.10 Implémentation des calculs .
2 Construction de bases de données pour entraîner et tester des algo- rithmes de Deep Learning
Acquisition de données, campagnes de terrain, et annotation des bases de données
2.1 Cas d’étude principal : Mayotte
2.2 Aller plus loin que les bases de données existantes
2.3 Campagnes et acquisitions de données vidéos
2.4 Création d’un outil pour constituer nos bases de données d’images
2.5 Construction des bases de données pour nos travaux de recherche
3 Le Deep Learning est il plus efficace que le Machine Learning pour des tâches d’identification d’espèces de poisson ? 
4 Améliorer les résultats de classification obtenues grâce à un modèle Deep Learning : Focalisation sur la construction des bases de données d’entrainement, et comparaison de l’algorithme et de l’humain
5 Contrôle et prévention des erreurs d’un CNN d’identification d’espèces de poisson
6 Détection de poissons dans des vidéos sous-marines
7 Conclusions et Perspectives 
7.1 Rappel des principaux résultats et avancées
7.2 Association de la classification taxonomique et de l’apprentissage profond
7.3 Résoudre le problème d’équilibrage des classes
7.4 Utiliser le potentiel du Big data
7.5 Ajout d’information pour renforcer les modèlesDeep Learning
7.6 Vers des applications de localisation et d’identifications automatiques en écologie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *