Télécharger le fichier pdf d’un mémoire de fin d’études
Positionnement de notre approche
Nous présentons ci après un état de l’art synthétique a…n de positionner notre approche et les choix sous-jacents.
Certains travaux comme Gulshan et al. dans [29] et Xia et al. dans [40], se focalisent sur des images provenant de capteurs Kinect [42] ou Xtion [10] et utilisent des méthodes de détection de personnes pour amorcer leur segmentation. Alahari et al.dans [7] présentent un algorithme sur des séquences stéréoscopiques de …lms en 3D. Malheureusement, ces travaux ne s’intéressent qu’à la segmentation de personnes debout et ne permettent pas de détecter des personnes allongées ou dans des positions assises ou penchées. De plus, ils ne permettent de segmenter des personnes qu’à une distance limitée (< 6m). Ils ne conviennent donc pas à notre application de détection de chutes à plus de 6m. Jafari et al. dans [33] ou Munaro et al. dans [44] utilisent des images RGB-D pour détecter des per-sonnes sur des robots mobiles sans les segmenter. Un certain nombre d’approches récentes s’intéressent à la segmentation conjointement à l’estimation de pose : par exemple Ladicky et al. dans [38] avec des images couleurs ou encore Kholi et al. dans [35] avec plusieurs caméras couleur. L’utilisation de caméras couleur de nuit, lorsque la scène observée est obscure, est impossible ce qui rend ces approches inopérantes dans notre cas. Beaucoup d’algorithmes existants de soustraction de fond en RGB tels que ceux cités dans la « survey » par Dhome et al. dans [23] ou plus récemment Barnich et al. dans [11] pourraient être appliqués en l’état à des images RGB-D en considérant la composante de profondeur comme une quatrième composante que l’on traitera comme les autres com-posantes couleurs. Certains travaux exploitent l’ajout de la profondeur de façon spéci…que pour la soustraction de fond : en plus de présenter un algorithme inspiré du Codebook Kim et al. dans [34], Fernandez-Sanchez et al. dans [25] recensent un certain nombre de méthodes. Kolmogorov et al. dans [36] et Ivanoc et al. dans [32] se concentrent sur les spéci…cités que possèdent les images venant d’une paire stéréoscopique. Crabb et al. dans [17] et Zhu et al. dans [62] s’intéressent principalement au remplacement du fond en utilisant la profondeur pour créer di¤érents plans parallèles à la caméra mais ne sont pas adaptés à un contexte de vidéosurveillance.
Harville et al. dans [31] proposent l’approche la plus similaire à la nôtre. Ils utilisent un mélange de gaussiennes RGB-D mais la prise en compte de la spéci…cité de l’information de profondeur est naïve ce qui fait qu’ils ne peuvent se débarrasser des fantômes liés aux objets intégrés dans le fond qui se déplacent ensuite.
Notre approche
Notre approche vise à segmenter les di¤érentes régions mobiles correspondant a priori à des personnes à partir d’une image RGB-D. La présence de la composante de profondeur nous permet de facilement distinguer les composantes en mouvement qui seraient confon-dues dans l’image mais séparées les unes des autres dans la réalité comme une personne en masquant partiellement une autre.
L’approche est schématisée par la …gure 2-2. Tout d’abord nous allons utiliser une méthode pixellique basée sur des mélanges de gaussiennes qui vont classer chaque pixel en plan mobile ou arrière-plan sans tenir compte des relations de voisinage entre pixels. Le premier plan correspond aux pixels des objets en mouvement, l’arrière-plan aux pixels des objets statiques. Cette méthode utilise spéci…quement l’information de profondeur pour gérer les ambiguïtés propres aux algorithmes de soustraction de fond ce qui n’est pas le cas de la littérature actuelle. Après un …ltrage morphologique, ces pixels sont ensuite regroupés pour former des composantes connexes dans l’image. En…n, un algorithme d’étiquetage en 3D va séparer les composantes connexes de l’image en groupes de points dans l’espace.
Nous allons d’abord formaliser notre algorithme avant de décrire son implémentation pratique. Des évaluations seront ensuite présentées à la fois dans le contexte applicatif et au-delà. En…n, nous présenterons les résultats obtenus en utilisant le seul canal de profondeur à l’instar d’OpenNI.
Classi…cation des pixels
Notre approche exploite ici des mélanges de gaussiennes à l’instar de Stau¤er et al. [65]. Les évaluations montrées dans Benezeth et al. [12] démontrent la pertinence de cette approche dans un contexte RGB à la fois du point de vue des performances et du point de vue du temps de calcul. De plus, le formalisme présenté dans Stau¤er et al. [65] se prête particulièrement bien aux améliorations proposées. Cette modélisation permet de prendre en compte à la fois le bruit inhérent au capteur et le fait que di¤érents objets constituent la scène (ne serait-ce qu’une personne et le fond devant lequel elle est située). Ces objets seront représentés localement pour chaque pixel par une distribution gaussienne. Notre algorithme s’inspire de ces approches en …xant l’appartenance de chaque composante au fond ou au premier plan. L’idée clé de notre approche est d’utiliser la profondeur comme une dimension spéciale pour laquelle la relation d’ordre existante possède des propriétés directement liées au fait qu’un pixel appartient au premier plan ou au fond. Nous formaliserons d’abord cet algorithme avant de parler des problèmes spéci…ques à l’implémentation de cet algorithme.
Modèle associé à chaque pixel
Chaque pixel xi de l’image à segmenter est représenté par un vecteur 4D xi = (ri; gi; bi; di) qui représente dans l’ordre le canal rouge, vert, bleu et de profondeur du pixel i.
Toutes les variables utilisées dans cette section décrivent l’état d’un seul pixel xi alors noté ici simplement x pour simpli…er les notations. Un pixel peut appartenir soit au fond soit au premier plan. On note P (xjB) la distribution de probabilité du pixel i sachant qu’il appartient à l’arrière-plan et P (xjF ) la distribution de probabilité du pixel i sachant qu’il appartient au premier plan.
Pour chaque pixel de l’image, chaque plan est représenté par une distribution normale. L’espérance de cette distribution représente la position réelle du plan dans l’espace 4D (à estimer), la variance correspond au bruit inhérent à la capture de couleur et à l’estimation de profondeur par le capteur ainsi qu’à l’évolution possible de la position de ce plan. Il n’existe qu’une seule composante de premier plan pour chaque pixel alors qu’il existe un nombre arbitraire Nb de plans du fond. La distribution de probabilité est représentée par un mélange de gaussiennes décrit comme suit : L’appartenance d’un pixel à une composante k 2 1::Nb particulière du fond est décrite par la variable qualitative Bk: L’appartenance d’un pixel à une composante quelconque du fond est décrite par la variable qualitative B. Les matrices de variance-covariance des composantes sont notées et considérées comme diagonales.
Mise à jour des paramètres du modèle
A…n de s’adapter à l’évolution du fond ou du premier plan, nous faisons ensuite évoluer les paramètres associés à chaque pixel de l’image avec la nouvelle valeur du pixel à l’instant t. L’approche utilisée pour l’évolution de ces paramètres est la suivante : le terme est une constante d’apprentissage avec 0 < < 1. Ce paramètre détermine l’importance de l’association du pixel à la composante et est un paramètre libre à régler décrivant en quelque sorte la bande passante des mouvements. Encore une fois nous tirons parti de Stau¤er et al. [65]:
Nous dé…nissons la variable Mf;t qui représente l’association à la gaussienne de premier plan. On a donc Mf;t = 1 si le pixel est associé à la composante de premier plan et Mf;t = 0 sinon.
Nous dé…nissons les variables d’association Mk;t de façon similaire pour les Nb composantes de fond : Mk;t = 1 si le pixel est associé à la composante de fond k et Mk;t = 0 sinon.
( )t est la valeur d’une variable pour l’image à l’instant t. Pour toutes les composantes, nous faisons évoluer le paramètre de poids avec les équations 2.8. Cela permet éventuelle-ment d’intégrer dans le fond des objets qui restent immobiles après avoir bougé.
k;t+1 = (1) k;t + Mk;t (2.8a)
f;t+1 = (1) f;t + Mf;t (2.8b)
Pour la composante à laquelle le pixel est associé, nous faisons aussi évoluer l’espérance et la matrice de covariance de la distribution normale :
bk;t+1 = (1 )bk;t + xt (2.9)
ft+1 = (1 )f;t + xt (2.10)
k;t+1 = (1 ) k;t + (xt bk;t)t(xt bk;t) (2.11)
f;t+1 = (1 ) f;t + (xt ft)t(xt ft) (2.12)
L’évolution des matrices doit laisser les matrices diagonales. Nous forçons alors à 0 les valeurs en dehors de la diagonale.
Si le pixel se trouve trop loin de toutes les composantes, nous utilisons une heuristique qui se fonde sur les considérations de relation d’ordre sur la profondeur :
Si le pixel est derrière la gaussienne de mur, cela signi…e que cette composante modéli-sait un meuble qui a été déplacé. L’espérance de cette composante est alors directement déplacée à la valeur du pixel observé.
Si le pixel est situé entre deux composantes de fond, nous a¤ectons un poids nul aux gaussiennes situées plus près, nous déplaçons la gaussienne de premier plan à la place du pixel et nous lui a¤ectons un poids faible et une variance élevée a…n de permettre la ré-acquisition de celui-ci.
Si le pixel est plus près que toutes les gaussiennes de fond, nous déplaçons la gaussienne de premier plan au niveau du pixel et nous lui a¤ectons un poids faible et une variance élevée.
Lorsque le poids f de la composante de premier plan atteint un poids assez élevé (supérieur au seuil T ), l’objet de premier plan est alors incorporé dans le fond. Ainsi lorsque l’on déplace un objet de la scène celui-ci ne reste pas un temps in…ni dans le premier plan. Pour assimiler une composante de premier plan au fond, on remplace les paramètres de la composante de fond ayant le poids b;k le plus faible par les paramètres de la composante de premier plan. La gaussienne de premier plan prend alors un poids nul et la composante de profondeur fd est alors déplacée à une distance nulle de la caméra. L’algorithme heuristique permet alors de redéplacer cette composante à l’endroit d’un premier plan réel lorsque que cela sera nécessaire.
A la …n de cette étape, on aura alors associé tous les pixels de l’image au fond ou au premier plan. La …gure 2-4 illustre un exemple de soustraction de fond après la première étape.
La section 2.4 détaille l’étape suivante de regroupement de ces pixels en régions.
Implémentation du processus de classi…cation
En pratique, on utilise seulement deux composantes de fond (Nb = 2). Nous avons réalisé des tests avec les séquences utilisées pour les autres évaluations en utilisant jusqu’à Nb = 5 composantes et observé que l’ajout d’autres composantes ne fait pas augmenter les performances de l’algorithme. En e¤et, il est extrêmement rare que deux objets ou plus se déplaçant viennent à rentrer dans le fond sur un même pixel.
Dans la présentation de Binney [13] est présenté l’écart-type de la valeur de l’estimation de profondeur d’un pixel en fonction de sa profondeur réelle. A…n de déterminer les paramètres de notre algorithme, nous avons utilisé un modèle polynomial pour modéliser cet écart-type ; celui-ci est illustré sur la …gure 2-5. L’équation est alors la suivante 2.13 : reg;d = C2d2 + C1d + C0:C0 = 7:713; C1 = 0:005; C2 = 2:61 10 6: (2.13)
Lors de l’introduction d’une nouvelle composante suite à l’utilisation de notre heuris-tique, son espérance est …xée égale à la valeur mesurée du pixel à ce moment-là. Pour déter-miner la valeur de la variance de la profondeur de cette nouvelle composante, nous prenons en compte à la fois l’incertitude sur la position de la composante lors de son introduction ainsi que le bruit inhérent au capteur. Cette variance est alors initialisée à une valeur supérieure à la valeur de bruit correspondant à cette profondeur donnée par notre modèle polynomial (typiquement 2 fois cette valeur). Les variances sur la couleur sont …xées à des valeurs relativement élevées pour la même raison. Le poids k ou f de la composante est initialisé à une valeur supérieure à la valeur minimum pour qu’un pixel soit associé. En pratique, les valeurs exactes d’initialisation importent peu à condition qu’elles véri…ent les conditions mentionnées précédemment. Nos expériences avec di¤érentes valeurs n’ont pas montré de sensibilité signi…cative à ces paramètres. L’évolution des paramètres dé…nie par les équations 2.8 permet d’estimer de façon rapide les paramètres des composantes après leur introduction.
Evaluations pour une personne debout
Les courbes 2-6 montrent les performances en recall et en précision de notre algorithme comparé à celui d’OpenNI. Pour tracer ces courbes, la vérité terrain a été déterminée à la main sur di¤érentes images de couleur de di¤érentes séquences de personnes se déplaçant face à la caméra de plus en plus loin. Trois séquences ont été utilisées, dans chacune desquelles 15 images de la personne à di¤érentes distances ont été utilisées.
La distance en abscisse correspond à la distance moyenne des pixels de la silhouette.
Cette distance est calculée avec la valeur des pixels de l’image de profondeur.
Dans le domaine d’utilisation nominale du capteur (< 6m), les deux algorithmes ont des performances très proches. Cependant, au-delà de 6m; alors que les performances en précision de l’algorithme d’OpenNI se dégradent, notre algorithme continue à détecter les personnes avec des performances qui restent su¢ santes pour l’application qui nous intéresse. La chute du critère de recall et non de la précision traduit le fait que très peu de pixels sont détectés en dehors du corps humain. La dégradation des performances avec la distance vient principalement des pixels faussement détectés comme faisant partie du fond.
La …gure 2-7 illustre les di¤érences de segmentation entre notre algorithme et OpenNI pour une personne debout à une distance importante du capteur. Nous voyons que notre algorithme est substantiellement plus performant que celui d’OpenNI.
Travaux similaires
La communauté Vision a largement investigué l’estimation de posture humaine par des techniques de Vision par Ordinateur. Des « surveys » ont été réalisées, notamment par Moeslund et al. dans [43]. Nous nous intéressons d’abord aux travaux utilisant la pro-fondeur. Puis nous nous concentrons sur ceux utilisant les Random Forests ; ce classi…eur multi-classes est très adapté dans notre contexte.
Estimation à partir de la profondeur
Des travaux récents ont été réalisés qui exploitent les images de profondeur et en particulier le Kinect [42].
Anguelov et al. dans [9] segmentent une image de profondeur en fond et di¤érentes parties du corps en utilisant des champs de Markov. Grest et al. dans [28] se placent dans une logique de suivi et utilisent un algorithme ICP (pour Iterative Closest Point) pour suivre un squelette dont ils connaissent la taille et la posture initiale dans une image de profondeur. Utilisant encore une fois la segmentation en parties du corps, Zhu et al. dans [63] [64] partent d’une pose en T pour calibrer un modèle qui sera ensuite suivi par programmation linéaire. Avec des détecteurs adaptés à chaque partie du corps, Siddiqui et al. dans [53] utilisent un modèle de MCMC (pour Monte Carlo Markov Chains) pour suivre les positions de certains membres spéci…ques. Plagemann et al. dans [48] construisent un modèle 3D complet à partir du nuage de points de la silhouette et trouvent les extrémités géodésiques de ce modèle qui correspondent aux pieds, à la tête et aux mains. Aucune distinction n’est cependant faite entre la droite et la gauche. Récemment, Ye et al. dans [60] utilisent un modèle 3D articulé dont ils estiment les paramètres de forme en l’ajustant au nuage de points. Ils propagent ensuite la pose par optimisation itérative. Cet axe de recherche est en plein développement et a connu de grandes avancées ces dernières années, notamment grâce à l’utilisation de Random Forests comme présenté ci-après.
Travaux utilisant les Randoms Forests
Les Random Forests ont été largement utilisées en vision, notamment pour la classi…cation d’images (Leistner et al. dans [39]), la segmentation d’images et la détection d’objets par Gall et al. dans [26] et Kontshieder et al. dans [37] ou encore la reconnaissance d’actions par Gal et al. dans [26]. Cet outil a permis une grande avancée dans l’estimation de pose par images de profondeur avec Shotton et al. dans [51]. Ils utilisent les images de profondeur avec des Random Forests pour classi…er les pixels en parties du corps et estimer la position. Inspirés par ces travaux, di¤érentes méthodes ont amélioré cet algorithme. Construisant au-dessus du principe de reconnaissance par parties, Girshick et al. dans [27] ajoutent une dimension de régression pour estimer directement les parties du corps dans les feuilles de l’arbre. Kholi et al. dans [55] ajoutent une composante conditionnelle à la régression pour contraindre a priori l’espace des poses à estimer. Une généralisation supplémentaire à la régression par Taylor et al. dans [56] utilise un modèle en 3D du corps humain pour créer des correspondances entre pixels de l’image et points de la surface de ce modèle. Cet algorithme est cependant coûteux et di¢ cile à mettre en oeuvre. Yu et al. dans [61] utilisent des Regression Forests pour estimer la position 3D de personnes dans des images 2D. La détection d’action est combinée à une détection des membres dans l’image 2D. Hara et al. dans [30] utilisent un graphe de dépendance entre points du corps, les positions des membres sont estimées successivement par des Regression Tree en utilisant ce graphe. Dantone et al. dans [19] cherchent à obtenir des descripteurs non-linéaires des parties du corps grâce à des Random Forests en deux couches dans des images couleur. Le nombre important de travaux récents utilisant les Random Forests pour l’estimation de posture humaine et les bonnes performances de ceux-ci laissent penser que cette approche est prometteuse.
Nous présentons dans ce qui suit en détail les travaux de Shotton et al. dans [51] et Girshick et al. dans [27]. Notre approche s’appuie largement sur ces travaux qui ont été résumés par Shotton et al. dans [52].
Randoms Forests pour l’estimation de posture humaine
Nous présentons dans cette section en détail le formalisme des Random Forests pour l’estimation de posture à l’aide d’une seule image de profondeur.
Les travaux de Shotton et al. dans [51] constituent un jalon majeur dans l’estimation de posture humaine. Leurs résultats utilisant les Random Forests se sont avérés largement plus performants que ceux de l’état de l’art sur un ensemble de postures très variées. Leurs travaux, dénommés BPC (pour Body Part Classi…cation), se placent dans un premier temps dans une approche de pure classi…cation. Cette approche vise à déterminer la classe de chacun des pixels de l’image correspondant à une personne en termes de partie du corps. Les classes utilisées dans notre implémentation sont représentées sur la …gure 3-2.
Aux feuilles des arbres sont associées des distributions empiriques de probabilité visant à labelliser en parties corporelles chacun des pixels issus de la silhouette préalablement segmentée. Grâce à un ensemble de postures et d’images d’apprentissage très important, les auteurs parviennent avec de très bons résultats à estimer ces classes sur de nouvelles images, qu’elles soient simulées ou réelles. Une fois ces classes estimées, les auteurs utilisent un algorithme de Mean-Shift [15] pour trouver la position des articulations 3D. Ils trouvent alors dans l’espace, le centre des parties corporelles et appliquent un « o¤set » pour trouver la position des articulations.
Les travaux de Girshick et al. dans [27] dénommés OJC (pour O¤set Joint Regression OJC) s’inspirent de Shotton et al. [51] mais montrent de réels gains de performance. Les mêmes caractéristiques et les mêmes jeux de données sont utilisés. Leur approche cependant, utilise la régression pour estimer la position des articulations directement avec l’arbre en utilisant une information di¤érente dans les feuilles. En e¤et, dans l’approche de Girschick, une information directe sur la position des articulations est associée aux feuilles. Le critère d’apprentissage des structures des arbres reste le même que celui de Shotton et al. dans [51] avec un critère de classi…cation. La …gure 3-3 illustre les deux approches BPC et OJC en terme de précision de reconstruction pour chaque membre (Cf. section 3.5 pour la dé…nition exacte du critère « average precision »).
Malheureusement, le réglage de certains paramètres libres utilisés dans ces deux applications est peu argumenté. Pour obtenir de bons résultats avec une implémentation propre, il nous faut alors régler les valeurs de ces paramètres.
Formalisation de l’algorithme de Random Forest
Une forêt est un ensemble de T arbres de décision. Un arbre de décision est un arbre binaire contenant des noeuds de séparation ayant chacun deux enfants et des noeuds de décision appelés aussi feuilles qui n’ont pas d’enfants. Chaque noeud de séparation contient une caractéristique f et un seuil . La caractéristique f est une fonction de l’ensemble ff : (x; I) ! Rj 2 g prenant en paramètre un pixel x et son image associée I et renvoyant un scalaire. L’ensemble est l’ensemble des paramètres possibles pour la caractéristique. Un noeud de décision est donc représenté par un couple = ( ; ).
Chaque feuille contient l’information à inférer sur les pixels. Cette information est la classe du pixel (resp la position des articulations) dans une approche BPC (resp OJC).
Exploitation de la forêt
Lors de la phase de prédiction par une Random Forest, nous faisons traverser chaque arbre par le pixel pour lequel nous cherchons à faire une prédiction comme illustré sur la …gure 3-4. La feuille de chaque arbre à laquelle le pixel arrive fournira alors une prédiction pour ce pixel. A…n de faire une prédiction d’un arbre pour un pixel x de l’image I, on commence par le premier noeud de l’arbre i.e le noeud racine. Nous utilisons l’indice n pour indicer les di¤érents noeuds de l’arbre. Le noeud racine possède alors l’indice 0. Les paramètres du noeud de décision n sont alors notés n = ( n; n). La fonction binaire h n (x; I) de l’équation 3.1 de chaque noeud de décision permet de déterminer quel noeud doit être testé selon : h n (x; I) = [f n (x; I) n] (3.1)
A chaque noeud traversé par le pixel, nous comparons la valeur de la caractéristique à ce noeud pour ce pixel soit f (x). Si f (I; x) , le processus continue pour le noeud suivant à gauche sinon on continue pour le noeud suivant à droite. Ce processus est répété jusqu’à arriver à une feuille. Les prédictions pour chaque arbre et chaque pixel sont ensuite agrégées pour former un ensemble …nal de prédiction pour chaque partie corporelle ou articulation.
|
Table des matières
1 Introduction Générale
1.1 La détection de chute : un enjeu sociétal
1.1.1 Contexte médical et social
1.1.2 Solutions capteurs existantes pour la détection de chute
1.2 Besoins de l’entreprise
1.3 Notre solution
1.3.1 Notre solution matérielle : le capteur RGB-D
1.3.2 Solution logicielle
2 Segmentation de silhouettes humaines par capteur RGB-D
2.1 Positionnement de notre approche
2.2 Notre approche
2.3 Classi…cation des pixels
2.3.1 Modèle associé à chaque pixel
2.3.2 Relation d’ordre via le canal profondeur
2.3.3 Mise à jour des paramètres du modèle
2.3.4 Implémentation du processus de classi…cation
2.4 Regroupement des pixels en régions mobiles
2.4.1 Formalisation
2.4.2 Implémentation et valeurs des paramètres
2.5 Expérimentations et évaluations associées
2.5.1 Evaluations pour une personne debout
2.5.2 Evaluations pour une personne au sol
2.5.3 Suppression des fantômes
2.5.4 Détection de plusieurs personnes
12.5.5 Autres limites observées
2.5.6 Coût CPU
2.5.7 Approche avec canal profondeur seul
2.6 Conclusion
3 Estimation de la posture humaine par image de profondeur
3.1 Introduction
3.2 Travaux similaires
3.2.1 Estimation à partir de la profondeur
3.2.2 Travaux utilisant les Randoms Forests
3.3 Randoms Forests pour l’estimation de posture humaine
3.3.1 Formalisation de l’algorithme de Random Forest
3.3.2 Caractéristiques
3.3.3 Modèle de prédiction des feuilles
3.3.4 Prédictions …nales de la position des articulations
3.4 Notre Approche
3.4.1 Nos contributions
3.4.2 Equilibrage de la collection de pixels d’apprentissage
3.4.3 Hauteur du pixel comme nouvelle caractéristique
3.4.4 Génération des données d’apprentissage et de la base de test
3.5 Expérimentations et évaluations associées
3.5.1 Mesure de l’erreur de l’estimation de pose
3.5.2 Conditions d’apprentissage de la forêt
3.5.3 Caractéristique de hauteur du pixel
3.5.4 In‡uence du paramètre de bande passante de test
3.5.5 In‡uence de Dtp sur t;;j
3.5.6 In‡uence de l’équilibrage des pixels
3.5.7 Evaluations images réelles
3.5.8 Mise en évidence de l’ambiguïté droite/gauche
3.5.9 Comparaison à l’état de l’art
3.6 Conclusion
4 Filtrage multi-modal et levée d’ambiguïté entre parties corporelles
4.1 Introduction
24.2 Travaux similaires
4.3 Filtrage multi-modal sur un membre
4.3.1 Formalisation
4.3.2 Equations d’évolution
4.3.3 Equation d’observation
4.3.4 Filtrage
4.3.5 Choix des modes
4.3.6 Implémentation et évaluations associées
4.4 Filtrage multi-modal par paire de membres
4.4.1 Génération des paires d’observations
4.4.2 Formalisation
4.4.3 Equation d’évolution
4.4.4 Equation d’observation
4.4.5 Filtrage
4.4.6 Choix des modes
4.4.7 Evaluations
4.4.8 Comparaison à Nite
4.5 Conclusion et perspectives
5 Conclusion et perspectives
5.1 Conclusion des travaux
5.2 Perspectives
5.3 Prototype de détecteur de chute commercial . .
Télécharger le rapport complet