Les Modèles de Markov Cachés

Besoin d'aide ?

(Nombre de téléchargements - 0)

Catégorie :

Pour des questions et des demandes, contactez notre service d’assistance E-mail : info@chatpfe.com

Table des matières

Introduction
1 L’état de l’art
1.1 Les antécédents
1.2 L’état de l’art
1.2.1 Les Modèles de Markov Cachés
1.2.2 L’analyse discriminante
1.2.3La régression logistique
1.2.4Les classeurs paresseux (lazy learners)
1.2.5Les arbres et forêts de décision
1.2.6Les machines à vecteurs de support (SVM)
1.2.7Les réseaux de neurones artificiels
1.2.8Les modèles d’ensemble
1.2.9Les autres modèles
1.2.2.1 Le modèle bayésien naïf (naïve Bayes)
1.3 Pourquoi la SVM et la forêt de décision
1.4 Résumé
2 L’apprentissage statistique automatique
2.1 L’approche statistique
2.2 Le processus de décision
2.3 Le choix du modèle
2.3.1 L’apprentissage paramétrique ou non paramétrique
2.3.2 L’apprentissage supervisé ou non supervisé
2.4 L’optimisation du modèle
2.4.1 La capacité de généralisation
2.4.2 La complexité du modèle
2.4.3 Éviter la mauvaise généralisation
2.4.4 Soulager le sur-ajustement
2.4.5 Soulager le sous-ajustement
2.4.6 La Régularisation
2.4.7 La validation
2.4.8 Les mesures de performance
2.5 Résumé
3 Le prétraitement et la transformation du texte
3.1 L’extraction de termes (Tokenization)
3.2 La lemmatisation ou réduction à la tige (Stemming)
3.3 La suppression de mots fonctionnels (stop words remotion)
3.4 La représentation vectorielle du texte
3.5 La transformation des caractéristiques
3.6 Résumé
4 Les machines à vecteurs de support (SVM)
4.1 Le cas quand les données sont linéairement séparables
4.2 La classification d’une nouvelle donnée
4.3 Le cas quand les données ne sont pas linéairement séparables
4.4 La marge souple
4.5 L’astuce de la fonction noyau
4.5.1 Les fonctions noyau
4.6 La prévision de la capacité de généralisation
4.7 La SVM pour plus de deux catégories
4.7.1 Une contre une (One versus one)
4.7.2 Une contre tous (One versus aH)
4.8 Contrôler la complexité du classeur
4.9 Les avantages et les inconvénients des SVM
4.9.1 Les inconvénients
4.9.2 Les avantages
4.10 Résumé
5 Les arbres et forêts de décision
5.1 Introduction
5.2 Les arbres de décision
5.2.1 L’entraînement des arbres
5.2.2 L’optimisation des nœuds
5.2.2.1 Le Gini index
5.2.2.2 L’entropie
5.2.3 La phase de test
5.3 Les avantages et les inconvénients des arbres de décision
5.4 Le modèle de forêt de décision
5.4.1 Le Bagging
5.4.2 La randomisation de nœuds
5.4.3 L’entraînement de la forêt
5.4.4 La prévision et la classification des données
5.4.5 Le bagging et la capacité de généralisation
5.4.6 L’effet des paramètres du modèle de forêt de décision
5.4.6.1 Le nombre d’arbres T de la forêt
5.4.6.2 L’effet du type de classeur faible
5.4.6.3 La profondeur maximale d’arbre
5.4.6.4 Le montant de randomisation (contrôlé par Pj)
5.5 Les avantages et les inconvénients des forêts de décision
5.5.1 Les Avantages
5.5.2 Les inconvénients
5.6 Résumé
6 L’implémentation 
6.1 La lecture et le découpage des données
6.2 La fonction de classification
6.2.1Les paramètres
6.2.2L’importation et la vectorisation des données
6.2.3Le choix du classeur
6.2.4Les classeurs
6.2.4.1 La structure
6.2.4.2 La création d’une instance du classeur à utiliser
6.2.5 L’optimisation du classeur
6.2.5.1 La grille d’hyperparamètres
6.2.5.2 Les hyperparamètres de la forêt de décision
6.2.5.3 Les hyperparamètres de la SYM
6.2.5.4 La recherche exhaustive des paramètres optimaux
6.2.5.5 La recherche randomisée d’hyperparamètres optimaux
6.2.5.6 L’entraînement du classeur
6.2.5.7 Le test du classeur
6.2.5.8 Les objets retournes
6.3Résumé
7 L’interface de l’Utilisateur
7.1 La fenêtre principale
7.2 Les options pré-traitement et transformation du texte
7.3 L’entraînement du classeur
7.3.1 La stratégie d’optimisation
La recherche exhaustive
La recherche randomisée
7.4 Le formulaire d’hyperparamètres de la forêt de décision
7.5 Le formulaire d’hyperparamètres de la SVM
7.6 La graphique de la courbe d’apprentissage
7.7 La graphique d’Importance des termes
7.8 L’importance des termes
7.9 Résumé
8 L’expérimentation
8.1 Introduction
8.2 La procédure
8.3 Le prétraitement du texte
8.3.1 L’élimination à main de segments non originaux
8.3.2 Le nettoyage du texte
8.4 La stratégie d’optimisation
8.4.1 L’optimisation des SVM
8.4.2 L’optimisation des forêts de décision
La taille de la forêt
Le nombre de caractéristiques par nœud
8.5 La classification et analyse des chapitres
8.5.1 Chapitre 1. Les Arabes nomades et Arabes sédentaires des cam
pagnes
8.5.2 Chapitre II. Les Arabes des villes. – Mœurs et coutumes
8.5.3 Chapitre III. Institutions politiques et sociales des Arabes
8.5.4 Chapitre IV. Les femmes en Orient
8.5.5 Chapitre V. Religion et morale
8.6 Résumé
9 Conclusion

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *