Table des matières
INTRODUCTION GENERALE
CHAPITRE 1 : EXTRACTION DE CONNAISSANCES A PARTIR DE DONNEES
1 Introduction du chapitre
2 Généralités ECD
2.1 Processus ECD
3 Apprentissage automatique
3.1 Les méthodes de l’apprentissage automatique
3.1.1 Méthodes d’Apprentissage Empirique
3.1.1.1 Apprentissage par analogie
3.1.1.2 Apprentissage par induction
3.1.2 Méthodes d’Apprentissage par Explication
3.2 Apprentissage supervisé
3.3 Apprentissage non-supervisé
3.4 Les approches de l’apprentissage automatique
3.4.1 Apprentissage numérique
3.4.2 Apprentissage symbolique
3.5 Fouille de données (Datamining)
3.6 Principales méthodes de classification
3.6.1 Analyse factorielle discriminante
3.6.2 Méthodes du noyau et plus proches voisins
3.6.3 Les réseaux de neurones
3.6.4 Les arbres de décision
4 Méthodes de classification à base d’arbres
4.1 Arbres de décision, historique
4.2 Stratégies de construction d’arbres de décision
4.3 Schéma TDIDT
CHAPITRE 2 : LES AUTOMATES D’ARBRES
1 Introduction du chapitre
2 Automates pour les séquences
3 Automates pour les arbres
3.1 Automates d’arbres pour la
manipulation de documents XML
3.2 Automates d’arbres pour la sécurité informatique
3.3 Automates d’arbres & apprentissage
3.4 Applications des automates d’arbres
3.5 Quelques définitions sur les arbres
3.6 Automates d’arbres finis, définition
4.4 Qualité d’une partition
4.4.1 Critères de partition
4.4.1.1 Théorie de l’information
4.4.1.2 Distances entre distributions de probabilités
4.5 Algorithmes ID3 & C4.5
4.5.1 La méthode ID3
4.5.2 La méthode C4.5
4.6 Taille d’un arbre de décision
4.6.1 Pré-élagage
4.6.2 Post-élagage
4.6.2.1 Minimal Cost Complexity Pruning
4.6.2.2 Reduced Error Pruning
4.6.2.3 Pessimistic Error Pruning
4.6.2.4 Error Based Pruning
4.6.3 Simplification des arbres de décision
4.7 Inconvénients des méthodes de segmentation par arbres
5 Conclusion du chapitre
3.7 Types d’automates d’arbres
3.7.1 Les automates d’arbres finis ascendants
3.7.2 Les automates d’arbres finis descendants
3.8 Automates d’arbres avec règles-ε
3.9 Automates d’arbres déterministes
3.9.1 Déterminisation d’un automate d’arbres
3.10 Réduction des automates d’arbres
3.11 Minimisation des automates
3.11.1 Méthodes de simplification d’automates
3.11.1.1 Equivalence de Nerode
3.11.1.2 Algorithme de Hopcroft
4 Conclusion du chapitre
CHAPITRE 3 : CONTRIBUTION 1 : AUTOMATES D’ARBRES POUR LA CLASSIFICATION.
1 Introduction du chapitre
2 Transcodage d’un arbre de décision dans le formalisme d’automates d’arbres
2.1 Illustration 1, extrait application MONITDIAB
2.1.1 Eclatement du noeud racine
2.1.2 Eclatement d’un noeud intermédiaire
2.2 Illustration 2, exemple Retard
3 Extraction des règles de décision
4 Utilisation des propriétés des automates d’arbres pour la simplification des modèles générés
4.1 Déterminisation de l’automate
4.2 Nettoyage de l’automate
4.3 Déroulement des algorithmes
4.3.1 Déroulement exemple 1
4.3.2 Déroulement exemple 2
5 Conclusion du chapitre
CHAPITRE 4 : METHODES D’ENSEMBLES ET SIMPLIFICATION D’ENSEMBLES
1 Introduction du chapitre
2 Etat de l’art, méthodes d’ensemble
3 Agrégation de modèles
3.1 Techniques de diversification
3.1.1 Diversification par rééchantillonnage
3.1.1.1 Bagging
3.1.1.2 Boosting
3.1.1.3 Randomizing outputs
3.1.1.4 Random subspace
3.1.2 Diversification par Hybridation
3.1.2.1 Stacking
3.1.2.2 Méthodes multi-stratégies
4 Pruning d’ensemble
4.1 Pourquoi le pruning d’ensemble ?
4.2 Méthodes de pruning d’ensembles
4.2.1 Pruning d’ensemble, état de l’art
4.2.2 Méthodes Hill Climbing
4.2.2.1 Direction de recherche
4.2.2.2 Fonction d’évaluation
4.2.2.3 Ensemble de validation
5 Conclusion du chapitre
CHAPITRE 5 : FONCTION MULTI OBJECTIFS ET MESURE DE SEGMENTATION POUR LA SELECTION
1 Introduction du chapitre
2 Mesure de segmentation pour la sélection des variables
2.1 Motivations
2.2 Principe de la mesure NIM
2.3 Présentation détaillée de la mesure
2.4 Critiques des méthodes arborescentes
2.4.1 Insensibilité à l’effectif
2.4.2 Non décroissance du critère
2.4.3 Préférence à la complexité
2.5 Etapes de génération d’un arbre
2.6 Génération d’un arbre sur l’application de surveillance des diabétiques
3 Fonction multi objectifs pour la sélection d’ensembles
3.1 Motivations
3.2 Contribution
3.3 Présentation détaillée de la fonction multi objectifs
3.3.1 Normalisation des composantes C et E de S
3.3.2 Algorithme de simplification
3.3.3 Initialisation et parcours
4 Conclusion du chapitre
CHAPITRE 7 : EXPERIMENTATIONS
1 Introduction du chapitre
2 Description des bases d’apprentissage
3 Environnements de développement
3.1 Présentation de la plate forme Weka
3.1.1 Structure de données
3.1.2 Outils de programmation
3.2 Plate forme méthodes d’ensembles
4 Architecture générale
5 Automates d’arbres pour la classification
5.1 Démarche des expérimentations
5.2 Etudes comparatives et résultats
5.2.1 Première étude comparative
5.2.2 Deuxième étude comparative
5.2.3 Troisième étude comparative
5.3 Analyse des résultats des résultats
CHAPITRE 6 : PRESENTATION DU DOMAINE D’APPLICATION : SURVEILLANCE DES DIABETIQUES
1 Introduction du chapitre
2 Le diabète
2.1 Types du diabète
2.1.1 Diabète Type 1
2.1.2 Diabète Type 2
3 Complications du diabète : qu’est-ce que c’est?
4 La surveillance du Diabète
5 Le diabète & l’informatique
6 Contribution, élaboration du modèle de classification
6.1 Les variables exogènes
6.2 Les valeurs de la classe
7 Conclusion du chapitre
6 Mesure de segmentation pour la sélection de variables
6.1 Démarche des expérimentations
6.2 Etudes comparatives et résultats
6.2.1 Première étude comparative
6.2.1.1 Analyse des résultats de la première étude comparative
6.2.2 Deuxième étude comparative
6.2.2.1 Analyse des résultats de la deuxième étude comparative
7 Fonction multi objectifs pour la sélection d’ensembles
7.1 Etudes comparatives
7.2 Démarche des expérimentations
7.2.1 Comparaison des taux de succès
7.2.2 Comparaison des tailles des sous ensembles
8 Conclusion du chapitre
CONCLUSION GENERALE
BIBLIOGRAPHIE
ANNEXE A
ANNEXE B