Selection des variables a base des metaheuristiques

Dans leurs activitรฉs, les ingรฉnieurs et les dรฉcideurs sont confrontรฉs ร  des problรจmes de complexitรฉ grandissante, en vue de maximiser les bรฉnรฉfices, minimiser les pertes…etc. Ces problรจmes surgissent dans des domaines trรจs divers, comme la conception et lโ€™implรฉmentation des systรจmes dโ€™aide ร  la dรฉcision, les rรฉseaux informatiques, le traitement dโ€™images, en robotique, en รฉlectronique. Dans le domaine de diagnostic mรฉdical, la rรฉsolution des problรจmes se base sur le traitement de donnรฉes extraites ร  partir des informations acquises sur des patients, et structurรฉes sous forme de vecteurs de caractรฉristiques. La qualitรฉ du systรจme de diagnostic dรฉpend รฉnormรฉment du bon choix du contenu de ces vecteurs. Cependant, dans de nombreux cas, la rรฉsolution pratique du problรจme devient presque impossible ร  cause de la dimensionnalitรฉ importante de ces vecteurs. Par consรฉquent, il est souvent utile, et parfois nรฉcessaire, de rรฉduire la taille de ces caractรฉristiques ร  une taille plus optimale, en utilisant des mรฉthodes de rรฉsolution dรฉdiรฉes. Dans plusieurs cas, la rรฉsolution des problรจmes complexes avec des descripteurs de grande taille pourrait รชtre gรฉrรฉe, en utilisant peu de caractรฉristiques extraites des donnรฉes initiales.

Gรฉnรฉralitรฉs sur les mรฉtaheuristiques

Un grand nombre de problรจmes dโ€™aide ร  la dรฉcision, comme les problรจmes dโ€™apprentissage et de sรฉlection de variables, peuvent รชtre dรฉcrits sous forme de problรจmes dโ€™optimisation. Ces derniers occupent actuellement une place grandissante dans la communautรฉ scientifique. Ils peuvent รชtre combinatoires (discrets) ou ร  variables continues, avec un seul ou plusieurs objectifs (optimisation mono ou multiobjectif), statiques ou dynamiques, avec ou sans contraintes. Cette liste nโ€™est pas exhaustive et un problรจme peut รชtre, par exemple, ร  la fois continu et dynamique.

Dรฉfinition dโ€™un problรจme dโ€™optimisation

L’optimisation se dรฉfinit comme la sรฉlection du meilleur รฉlรฉment (appelรฉ optimum) parmi un ensemble d’รฉlรฉments autorisรฉs (appelรฉ espace de recherche), en fonction d’un critรจre de comparaison. Un problรจme dโ€™optimisation P peut รชtre dรฉcrit comme un triple (S, C, F) ou :
S : est l’espace de recherche dรฉfini sur un ensemble de variables de dรฉcisions.
C : est lโ€™ensemble de contraintes dโ€™รฉgalitรฉs ou inรฉgalitรฉs qui doivent รชtre satisfaites pour quโ€™une solution soit faisable.
F : est la fonction objective (fonction de cout) qui assigne une valeur du coรปt positive ร  chaque รฉlรฉment (ou solution) de S.

Plusieurs problรจmes dโ€™optimisation dรฉpendent du choix de la meilleure configuration de lโ€™ensemble de variables pour atteindre ses objectifs, ils peuvent se dรฉcouper en deux catรฉgories : les problรจmes oรน les solutions sont codรฉes avec des valeurs rรฉelles (Problรจme Continu) et les problรจmes oรน les solutions sont codรฉes avec des variables discrรจtes (problรจme Combinatoire) que nous nous intรฉressons dans notre thรจse. . Il existe aussi des problรจmes mixtes qui utilisent ร  la fois des variables continues et discrรจtes.

Un problรจme dโ€™optimisation combinatoire est gรฉnรฉralement caractรฉrisรฉ par un ensemble fini de solutions admissibles W et une fonction objectif F , associant une valeur ร  chaque solution admissible. La rรฉsolution du problรจme consiste ร  dรฉterminer la ou les solution(s) de W minimisant ou maximisant F, cโ€™est-ร -dire lโ€™optimum global .

Classification des mรฉthodes dโ€™optimisation

L’optimisation combinatoire occupe une place trรจs importante en recherche opรฉrationnelle, en mathรฉmatiques discrรจtes et en informatique. Bien que les problรจmes d’optimisation combinatoire soient souvent faciles ร  dรฉfinir, ils sont gรฉnรฉralement difficiles ร  rรฉsoudre. Etant donnรฉe l’importance de ces problรจmes, de nombreuses mรฉthodes de rรฉsolution ont รฉtรฉ dรฉveloppรฉes en recherche opรฉrationnelle (RO) et en intelligence artificielle (IA).

Les mรฉthodes exactes

Le terme de mรฉthodes exactes regroupe l’ensemble des mรฉthodes permettant d’obtenir la solution optimale d’un problรจme, en un temps ยซย raisonnableย ยป. Elles s’opposent aux heuristiques, car les mรฉthodes exactes permettent d’obtenir thรฉoriquement la solution optimale et non une solution approchรฉe.

Les mรฉthodes approchรฉes

Les mรฉthodes exactes permettent de trouver une ou plusieurs solutions dont lโ€™optimalitรฉ est garantie. Dans certaines situations, on peut obtenir de solutions de bonnes qualitรฉs sans garantie dโ€™optimalitรฉ mais avec un temps de calcul rรฉduit (les mรฉthodes approchรฉes) [3] Les mรฉthodes approchรฉes constituent une alternative trรจs intรฉressante pour traiter les problรจmes d’optimisation de grande taille si l’optimalitรฉ n’est pas primordiale. En effet, ces mรฉthodes sont utilisรฉes depuis longtemps par de nombreux praticiens .

Les mรฉtaheuristiques

Au milieu des annรฉes 1970 des nouvelles mรฉthodes sont apparues qui supervisent lโ€™รฉvolution de solutions fournies par des heuristiques. Ces mรฉthodes assurent un compromis entre la diversification (possibilitรฉ de dรฉterminer que la recherche se concentre sur de mauvaises zones de lโ€™espace de recherche) et lโ€™intensification (recherche des meilleures solutions dans la rรฉgion de lโ€™espace de recherche en cours dโ€™analyse). Ces algorithmes sont appelรฉs ยซย mรฉtaheuristiquesโ€. Au dรฉbut des annรฉes 1980, ces mรฉthodes ont รฉtรฉ appliquรฉes dans le but est de rรฉsoudre au mieux les problรจmes dits d’optimisation difficile et de trouver des solutions dont la qualitรฉ est au-delร  de ce quโ€™il aurait รฉtรฉ possible de rรฉaliser avec une simple heuristique. Elles partent de principes plus gรฉnรฉriques que les heuristiques et sont susceptibles de s’appliquer ร  un cadre plus large de problรจmes, tandis quโ€™une heuristique est particuliรจre pour un problรจme donnรฉ .

Dรฉfinitions des mรฉtaheuristiques

Le terme mรฉtaheuristique vient des mots grecs mรฉta (au delร ) โ€˜dans un niveau supรฉrieurโ€™ et heuriskein et qui signifie (trouver).Une heuristique est une mรฉthode, conรงue pour un problรจme d’optimisation donnรฉ, qui produit une solution non nรฉcessairement optimale lorsqu’on lui fournit une instance de ce problรจme .

Dโ€™aprรจs Blum et Roli [23] il nโ€™existe actuellement aucune dรฉfinition communรฉment acceptรฉe pour les mรฉtaheuristiques.

Dรฉfinition(l) : Une mรฉtaheuristique est formellement dรฉfini comme une gรฉnรฉration itรฉrative processus qui guide une heuristique subordonnรฉe en combinant intelligemment diffรฉrents concepts pour l’ exploration et l’exploitation de lโ€™ espace de recherche , les stratรฉgies d’apprentissage sont utilisรฉs pour structurer l’information afin de trouver des solutions de maniรจre efficace quasi- optimales [8].

Dรฉfinition (2) : Les mรฉtaheuristiques sont des mรฉthodes gรฉnรฉriques de rรฉsolution approchรฉe de problรจmes dโ€™optimisation. Elles permettent dโ€™envisager une rรฉsolution approchรฉe de nombreux problรจmes dโ€™optimisation diffรฉrents, avec un minimum dโ€™adaptation rรฉalisรฉe pour chaque problรจme. Parmi ces mรฉthodes on trouve les algorithmes gรฉnรฉtiques [10].

Dรฉfinition (3) : Les mรฉtaheuristiques sont dรฉfinies comme un processus itรฉratif maitre qui guide et modifie des heuristiques subordonnรฉes dans le but dโ€™efficacement produire des solutions de haute qualitรฉ. Une mรฉtaheuristique peut manipuler une ou plusieurs solution complรจtes(ou incomplรจtes) a chaque itรฉration. Les heuristiques subordonnรฉes peuvent รชtre des procรฉdures de haut(ou bas) niveau, ou de simple recherche locale ou juste des mรฉthodes de construction [11].

Caractรฉristiques des mรฉtaheuristiques

Les principales caractรฉristiques attachรฉes aux mรฉtaheuristiques sont les suivantes:

โžบ La plupart des mรฉtaheuristiques sont des algorithmes incertains utilisant des processus alรฉatoires comme moyens de rรฉcolter de l’information et de parcourir lโ€™espace de recherche afin de trouver une solution satisfaisante.
โžบย Les mรฉtaheuristiques ne donnent aucune garantie dโ€™optimalitรฉ.
โžบ Les mรฉtaheuristiques peuvent utiliser lโ€™expรฉrience acquise durant le processus de recherche pour guider les รฉtapes suivantes du processus.
โžบ En plus de cette base stochastique, les mรฉtaheuristiques sont gรฉnรฉralement itรฉratives, c’est ร  dire qu’un mรชme schรฉma de recherche est appliquรฉ plusieurs fois au cours de l’optimisation, et directes, c’est ร  dire qu’elles n’utilisent pas l’information du gradient de la fonction objectif.
โžบ Elles sont inspirรฉes par analogie avec la rรฉalitรฉ : avec la physique (le recuit simulรฉ), avec la biologie (les algorithmes gรฉnรฉtiques) ou avec l’รฉthologie (les colonies de fourmis)…
โžบ Les mรฉtaheuristiques peuvent contenir des mรฉcanismes qui permettent d’รฉviter d’รชtre piรฉgรฉ dans des zones de lโ€™espace de recherche.
โžบ Elles partagent aussi les mรชmes inconvรฉnients tels que la difficultรฉ de rรฉglage de ces paramรจtres .

Le rapport de stage ou le pfe est un document dโ€™analyse, de synthรจse et dโ€™รฉvaluation de votre apprentissage, cโ€™est pour cela chatpfe.com propose le tรฉlรฉchargement des modรจles complet de projet de fin dโ€™รฉtude, rapport de stage, mรฉmoire, pfe, thรจse, pour connaรฎtre la mรฉthodologie ร  avoir et savoir comment construire les parties dโ€™un projet de fin dโ€™รฉtude.

Table des matiรจres

Introduction gรฉnรฉrale
1 Gรฉnรฉralitรฉs sur les mรฉtaheuristiques
1 Introduction
2 Dรฉfinition dโ€™un problรจme dโ€™optimisation
3 Classification des mรฉthodes dโ€™optimisation
3.1 Les mรฉthodes exactes
3.2 Les mรฉthodes approchรฉes
4 Les mรฉtaheuristiques
4.1 Introduction
4.2 Dรฉfinitions des mรฉtaheuristiques
4.3 Caractรฉristiques des mรฉtaheuristiques
5 Classification des Mรฉtaheuristiques
5.1. Recherche Locale (Mรฉthodes de trajectoire)
5.1.1. Le Recuit simulรฉ (RS)
a. Principes du RS
b. Algorithme du R S
c. Domaines dโ€™applications.
d. Avantages et inconvรฉnients
5.1.2 Recherche tabou
5.2 Mรฉtaheuristiques ร  base de population
5 .2.1 Introduction
5.2.2 Algorithme gรฉnรฉtique (AG)
a. Principe de base de lโ€™AG
b. Processus de lโ€™AG
c. Limites de lโ€™AG
5.2.3 Les essaims particulaires
a. Principe de fonctionnement
b. Algorithme de base
6 Conclusion
2 Problรจmes de sรฉlection de variables
1 Introduction
2 Sรฉlection de variables
2.1 Problรฉmatique
2.2 Difficultรฉ de la sรฉlection dโ€™attributs
2.2.1 Dimensionnalitรฉ
2.2.2 Pertinence dโ€™attributs
2.2.3 Redondance
2.3 Processus global de sรฉlection de variables
2.3.1. Procรฉdure de gรฉnรฉration
a. Direction de recherche
b. Stratรฉgie de recherche
2.3.2 Fonction dโ€™รฉvaluation
a. Information
b. Distance
c. Dรฉpendance
d. Consistance
e. Prรฉcision
2.3.3 Critรจre dโ€™arrรชt
2.3.4 Procรฉdure de validation
3 Approches de sรฉlection de variables
3.1 Mรฉthode par Filtre
3.2 Approches ร  adaptateur (Wrapper)
3.3 Approches intรฉgrรฉes (Embedded)
4 Mรฉtaheuristiques pour la sรฉlection de variables
5 Conclusion
3 Implรฉmentation de lโ€™algorithme OP-VAR
1 Introduction
2 Description du jeu de donnรฉes
2.1Description de la base de donnรฉes de diabรจte
2.2 Description de la base de donnรฉes Heart Statlog
2.3 Description de la base de donnรฉes Hepatitis
3 Environnement de dรฉveloppement
4 Critรจres dโ€™รฉvaluation
5 Le model Op-Var
5.1 Description du classifieur SVM
5.1.1 Hyperplans sรฉparateurs dans un problรจme ร  deux classes
5.2 Architecture du modรจle
5.2.1 Conception du chromosome
5.2.2 Conception de la fonction de remise en forme
5.2.3 ร‰tapes de base de la mรฉthode GA-SVM
5.3 Choix des paramรจtres
5.4 Lโ€™approche GA-SVM dans la littรฉrature
5.5 Aperรงu sur lโ€™interface Op-Var
6 Validation Expรฉrimentale
6.1 Analyse des rรฉsultats
6.2 Etude comparative
6.2.1 Comparaison des rรฉsultats avec et sans sรฉlection
6.2.2 Comparaison des rรฉsultats avec les mรฉthodes Relief et Rank-Features
6.2.3 Comparaison avec les rรฉsultats de la littรฉrature
7 Conclusion
Conclusion gรฉnรฉrale
Annexes

Lire le rapport complet

Tรฉlรฉcharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiรฉe. Les champs obligatoires sont indiquรฉs avec *