Le flux multimédia

Besoin d'aide ?

(Nombre de téléchargements - 0)

Pour des questions et des demandes, contactez notre service d’assistance E-mail : info@chatpfe.com

Table des matières

Introduction générale
Contexte et motivation
Problématique de la thèse
Objectifs de la thèse
Contributions de la thèse
Organisation de la thèse
Partie I : Etat de l’art 
Chapitre 1 : Généralités sur les documents vidéo
1.1 Introduction 
1.2 Que signifie le multimédia
1.3 Les avantages du multimédia
1.4 Le flux multimédia
1.5 Les éléments clés du multimédia
1.5.1 Le texte
1.5.2 L’image
1.5.3 L’audio
1.5.4 La vidéo
1.5.5 L’animation
1.6 Description du document vidéo
1.6.1 Les descripteurs visuels
1.6.2 Les descripteurs audios
1.6.3 Les descripteurs de mouvements
1.6.4 Les descripteurs sémantiques
1.7 Conclusion
Chapitre 2 : Les ontologies
2.1 Introduction 
2.2 Le domaine des ontologies
2.2.1 Définition Philosophique
2.2.2 Définition Informatique
2.3 Le formalisme des ontologies
2.4 Implémentation des ontologies
2.5 Le Web Sémantique
2.5.1 RDF
2.5.2 RDFS
2.5.3 OWL
2.5.4 OWL Functional syntax
2.5.5 SPARQL
2.5.6 SWRL
2.6 Conclusion  
Chapitre 3 : L’apprentissage profond (ou Deep Learning
3.1 Introduction 
3.2 Les réseaux de neurones à convolutions
3.3 Les types de couches
3.3.1 Les couches à convolutions
3.3.2 Les couches ReLU
3.3.3 Les couches Pooling
3.3.4 Les couches de normalisation
3.3.5 Les couches totalement connectées (Fully connected layers)
3.4 Les architectures des CNNs
3.4.1 Le Net-5
3.4.2 AlexNet
3.4.3 ZF Net
3.4.4 VGG Net
3.4.5 GoogLeNet
3.4.6 ResNet
3.5 Les CNNs pour la vision par ordinateur
3.5.1 La classification
3.5.2 La Classification selon la localisation
3.5.3 La détection d’objet dans la vidéo
R-CNN
Fast R-CNN
Faster R-CNN
Mask R-CNN
3.6 Quelques plateformes d’implémentation des réseaux de neurones
3.6.1 Python
3.6.2 TensorFlow
3.6.3 Keras
3.7 Conclusion 
Chapitre 4 : Annotation et recherche de vidéos sur le web : Etat de l’art
4.1 Introduction 
4.2 Annotation d’images
4.2.1 L’annotation vu comme traduction automatique
4.2.2 Les modèles fixes
4.2.3 Analyse de corrélation canonique
4.2.4 Les modèles profonds
4.3 De l’analyse de l’image vers l’analyse de la vidéo
4.3.1 Concepts de base
4.3.2 La reconnaissance d’actions dans la vidéo
4.3.3 L’annotation vidéo comme ressource textuelle
4.3.4 Les modèles d’actions
4.3.5 Les activités composites
4.4 La vidéo du web comme base d’annotation
4.5 Caractéristiques des annotations vidéo
4.5.1 Notion d’annotation
4.5.2 Vers l’annotation d’objets dans la vidéo
4.6 Les techniques d’annotation vidéo
4.6.1 L’annotation manuelle
4.6.2 L’annotation automatique
4.6.3 L’annotation semi-automatique
4.7 Quelques sites web pour l’annotation de vidéo en ligne
4.7.1 Vimeo
4.7.2 Youtube
4.7.3 DailyMotion
4.7.4 Clipper
4.7.5 Fox sports
4.7.6 Football highlights video
4.7.7 La FIFA
4.8 Etude des systèmes d’annotation vidéo dans le domaine du football
4.9 Comparaison des outils d’annotation vidéo du web
4.10 Conclusion
Partie II : Contributions 
Chapitre 5 : Solution basée sur une approche ontologique et l’apprentissage profond
5.1 Introduction 
5.2 Extraction des caractéristiques basé sur l’apprentissage profond (Module de bas niveau)
5.3 Le framework Mask R-CNN
5.3.1 Aperçu
5.3.2 La phase d’apprentissage du réseau
5.4 L’architecture globale de notre outil semi-automatique d’annotation de vidéo du web SOVAT
5.5 Description de notre ontologie (Module de haut niveau ou sémantique)
5.5.1 La description hiérarchique de l’ontologie
5.5.2 La catégorie Video-Objects
5.5.3 La catégorie Video-Actions
5.5.4 La catégorie Video-Sequences
5.5.5 Les DataProperty de notre Ontologie
5.5.6 Les ObjectPropety de notre Ontologie
5.6 Comparaison de notre ontologie du football avec l’état de l’art
5.7 Conclusion 
Chapitre 6 : Implémentation, Expérimentation et Comparaison du prototype SOVAT SOccer
6.1 Introduction
6.2 Modélisation UML du prototype SOVAt
6.2.1 Diagramme de cas d’utilisation de l’outil SOVAT
6.2.2 Diagramme de séquences de l’outil SOVAT
6.2.3 Diagramme de déploiement de l’outil SOVAT
6.3 Conception et implémentation de notre outil SOVAT
6.3.1 Notre Base de données images et vidéos
6.3.2 Implémentation du Mask R-CNN (Module du bas niveau)
6.3.3 Peuplement de l’ontologie (Module du haut niveau ou sémantique)
6.3.4 Les règles SWRL
6.4 Expérimentation et résultats de notre prototype réalisé
6.5 Comparaison de notre prototype avec ceux de l’état de l’art
6.6 Discussion des résultats
6.7 Conclusion 
Conclusion générale et perspectives futures
Annexe A : Quelques règles SWRL
Annexe B : Démos de présentation de notre outil d’annotation SOVAT
Références Bibliographiques

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *