Dans leurs activitรฉs, les ingรฉnieurs et les dรฉcideurs sont confrontรฉs ร des problรจmes de complexitรฉ grandissante, en vue de maximiser les bรฉnรฉfices, minimiser les pertes…etc. Ces problรจmes surgissent dans des domaines trรจs divers, comme la conception et lโimplรฉmentation des systรจmes dโaide ร la dรฉcision, les rรฉseaux informatiques, le traitement dโimages, en robotique, en รฉlectronique. Dans le domaine de diagnostic mรฉdical, la rรฉsolution des problรจmes se base sur le traitement de donnรฉes extraites ร partir des informations acquises sur des patients, et structurรฉes sous forme de vecteurs de caractรฉristiques. La qualitรฉ du systรจme de diagnostic dรฉpend รฉnormรฉment du bon choix du contenu de ces vecteurs. Cependant, dans de nombreux cas, la rรฉsolution pratique du problรจme devient presque impossible ร cause de la dimensionnalitรฉ importante de ces vecteurs. Par consรฉquent, il est souvent utile, et parfois nรฉcessaire, de rรฉduire la taille de ces caractรฉristiques ร une taille plus optimale, en utilisant des mรฉthodes de rรฉsolution dรฉdiรฉes. Dans plusieurs cas, la rรฉsolution des problรจmes complexes avec des descripteurs de grande taille pourrait รชtre gรฉrรฉe, en utilisant peu de caractรฉristiques extraites des donnรฉes initiales.
Gรฉnรฉralitรฉs sur les mรฉtaheuristiques
Un grand nombre de problรจmes dโaide ร la dรฉcision, comme les problรจmes dโapprentissage et de sรฉlection de variables, peuvent รชtre dรฉcrits sous forme de problรจmes dโoptimisation. Ces derniers occupent actuellement une place grandissante dans la communautรฉ scientifique. Ils peuvent รชtre combinatoires (discrets) ou ร variables continues, avec un seul ou plusieurs objectifs (optimisation mono ou multiobjectif), statiques ou dynamiques, avec ou sans contraintes. Cette liste nโest pas exhaustive et un problรจme peut รชtre, par exemple, ร la fois continu et dynamique.
Dรฉfinition dโun problรจme dโoptimisation
L’optimisation se dรฉfinit comme la sรฉlection du meilleur รฉlรฉment (appelรฉ optimum) parmi un ensemble d’รฉlรฉments autorisรฉs (appelรฉ espace de recherche), en fonction d’un critรจre de comparaison. Un problรจme dโoptimisation P peut รชtre dรฉcrit comme un triple (S, C, F) ou :
S : est l’espace de recherche dรฉfini sur un ensemble de variables de dรฉcisions.
C : est lโensemble de contraintes dโรฉgalitรฉs ou inรฉgalitรฉs qui doivent รชtre satisfaites pour quโune solution soit faisable.
F : est la fonction objective (fonction de cout) qui assigne une valeur du coรปt positive ร chaque รฉlรฉment (ou solution) de S.
Plusieurs problรจmes dโoptimisation dรฉpendent du choix de la meilleure configuration de lโensemble de variables pour atteindre ses objectifs, ils peuvent se dรฉcouper en deux catรฉgories : les problรจmes oรน les solutions sont codรฉes avec des valeurs rรฉelles (Problรจme Continu) et les problรจmes oรน les solutions sont codรฉes avec des variables discrรจtes (problรจme Combinatoire) que nous nous intรฉressons dans notre thรจse. . Il existe aussi des problรจmes mixtes qui utilisent ร la fois des variables continues et discrรจtes.
Un problรจme dโoptimisation combinatoire est gรฉnรฉralement caractรฉrisรฉ par un ensemble fini de solutions admissibles W et une fonction objectif F , associant une valeur ร chaque solution admissible. La rรฉsolution du problรจme consiste ร dรฉterminer la ou les solution(s) de W minimisant ou maximisant F, cโest-ร -dire lโoptimum global .
Classification des mรฉthodes dโoptimisation
L’optimisation combinatoire occupe une place trรจs importante en recherche opรฉrationnelle, en mathรฉmatiques discrรจtes et en informatique. Bien que les problรจmes d’optimisation combinatoire soient souvent faciles ร dรฉfinir, ils sont gรฉnรฉralement difficiles ร rรฉsoudre. Etant donnรฉe l’importance de ces problรจmes, de nombreuses mรฉthodes de rรฉsolution ont รฉtรฉ dรฉveloppรฉes en recherche opรฉrationnelle (RO) et en intelligence artificielle (IA).
Les mรฉthodes exactes
Le terme de mรฉthodes exactes regroupe l’ensemble des mรฉthodes permettant d’obtenir la solution optimale d’un problรจme, en un temps ยซย raisonnableย ยป. Elles s’opposent aux heuristiques, car les mรฉthodes exactes permettent d’obtenir thรฉoriquement la solution optimale et non une solution approchรฉe.
Les mรฉthodes approchรฉes
Les mรฉthodes exactes permettent de trouver une ou plusieurs solutions dont lโoptimalitรฉ est garantie. Dans certaines situations, on peut obtenir de solutions de bonnes qualitรฉs sans garantie dโoptimalitรฉ mais avec un temps de calcul rรฉduit (les mรฉthodes approchรฉes) [3] Les mรฉthodes approchรฉes constituent une alternative trรจs intรฉressante pour traiter les problรจmes d’optimisation de grande taille si l’optimalitรฉ n’est pas primordiale. En effet, ces mรฉthodes sont utilisรฉes depuis longtemps par de nombreux praticiens .
Les mรฉtaheuristiques
Au milieu des annรฉes 1970 des nouvelles mรฉthodes sont apparues qui supervisent lโรฉvolution de solutions fournies par des heuristiques. Ces mรฉthodes assurent un compromis entre la diversification (possibilitรฉ de dรฉterminer que la recherche se concentre sur de mauvaises zones de lโespace de recherche) et lโintensification (recherche des meilleures solutions dans la rรฉgion de lโespace de recherche en cours dโanalyse). Ces algorithmes sont appelรฉs ยซย mรฉtaheuristiquesโ. Au dรฉbut des annรฉes 1980, ces mรฉthodes ont รฉtรฉ appliquรฉes dans le but est de rรฉsoudre au mieux les problรจmes dits d’optimisation difficile et de trouver des solutions dont la qualitรฉ est au-delร de ce quโil aurait รฉtรฉ possible de rรฉaliser avec une simple heuristique. Elles partent de principes plus gรฉnรฉriques que les heuristiques et sont susceptibles de s’appliquer ร un cadre plus large de problรจmes, tandis quโune heuristique est particuliรจre pour un problรจme donnรฉ .
Dรฉfinitions des mรฉtaheuristiques
Le terme mรฉtaheuristique vient des mots grecs mรฉta (au delร ) โdans un niveau supรฉrieurโ et heuriskein et qui signifie (trouver).Une heuristique est une mรฉthode, conรงue pour un problรจme d’optimisation donnรฉ, qui produit une solution non nรฉcessairement optimale lorsqu’on lui fournit une instance de ce problรจme .
Dโaprรจs Blum et Roli [23] il nโexiste actuellement aucune dรฉfinition communรฉment acceptรฉe pour les mรฉtaheuristiques.
Dรฉfinition(l) : Une mรฉtaheuristique est formellement dรฉfini comme une gรฉnรฉration itรฉrative processus qui guide une heuristique subordonnรฉe en combinant intelligemment diffรฉrents concepts pour l’ exploration et l’exploitation de lโ espace de recherche , les stratรฉgies d’apprentissage sont utilisรฉs pour structurer l’information afin de trouver des solutions de maniรจre efficace quasi- optimales [8].
Dรฉfinition (2) : Les mรฉtaheuristiques sont des mรฉthodes gรฉnรฉriques de rรฉsolution approchรฉe de problรจmes dโoptimisation. Elles permettent dโenvisager une rรฉsolution approchรฉe de nombreux problรจmes dโoptimisation diffรฉrents, avec un minimum dโadaptation rรฉalisรฉe pour chaque problรจme. Parmi ces mรฉthodes on trouve les algorithmes gรฉnรฉtiques [10].
Dรฉfinition (3) : Les mรฉtaheuristiques sont dรฉfinies comme un processus itรฉratif maitre qui guide et modifie des heuristiques subordonnรฉes dans le but dโefficacement produire des solutions de haute qualitรฉ. Une mรฉtaheuristique peut manipuler une ou plusieurs solution complรจtes(ou incomplรจtes) a chaque itรฉration. Les heuristiques subordonnรฉes peuvent รชtre des procรฉdures de haut(ou bas) niveau, ou de simple recherche locale ou juste des mรฉthodes de construction [11].
Caractรฉristiques des mรฉtaheuristiques
Les principales caractรฉristiques attachรฉes aux mรฉtaheuristiques sont les suivantes:
โบ La plupart des mรฉtaheuristiques sont des algorithmes incertains utilisant des processus alรฉatoires comme moyens de rรฉcolter de l’information et de parcourir lโespace de recherche afin de trouver une solution satisfaisante.
โบย Les mรฉtaheuristiques ne donnent aucune garantie dโoptimalitรฉ.
โบ Les mรฉtaheuristiques peuvent utiliser lโexpรฉrience acquise durant le processus de recherche pour guider les รฉtapes suivantes du processus.
โบ En plus de cette base stochastique, les mรฉtaheuristiques sont gรฉnรฉralement itรฉratives, c’est ร dire qu’un mรชme schรฉma de recherche est appliquรฉ plusieurs fois au cours de l’optimisation, et directes, c’est ร dire qu’elles n’utilisent pas l’information du gradient de la fonction objectif.
โบ Elles sont inspirรฉes par analogie avec la rรฉalitรฉ : avec la physique (le recuit simulรฉ), avec la biologie (les algorithmes gรฉnรฉtiques) ou avec l’รฉthologie (les colonies de fourmis)…
โบ Les mรฉtaheuristiques peuvent contenir des mรฉcanismes qui permettent d’รฉviter d’รชtre piรฉgรฉ dans des zones de lโespace de recherche.
โบ Elles partagent aussi les mรชmes inconvรฉnients tels que la difficultรฉ de rรฉglage de ces paramรจtres .
|
Table des matiรจres
Introduction gรฉnรฉrale
1 Gรฉnรฉralitรฉs sur les mรฉtaheuristiques
1 Introduction
2 Dรฉfinition dโun problรจme dโoptimisation
3 Classification des mรฉthodes dโoptimisation
3.1 Les mรฉthodes exactes
3.2 Les mรฉthodes approchรฉes
4 Les mรฉtaheuristiques
4.1 Introduction
4.2 Dรฉfinitions des mรฉtaheuristiques
4.3 Caractรฉristiques des mรฉtaheuristiques
5 Classification des Mรฉtaheuristiques
5.1. Recherche Locale (Mรฉthodes de trajectoire)
5.1.1. Le Recuit simulรฉ (RS)
a. Principes du RS
b. Algorithme du R S
c. Domaines dโapplications.
d. Avantages et inconvรฉnients
5.1.2 Recherche tabou
5.2 Mรฉtaheuristiques ร base de population
5 .2.1 Introduction
5.2.2 Algorithme gรฉnรฉtique (AG)
a. Principe de base de lโAG
b. Processus de lโAG
c. Limites de lโAG
5.2.3 Les essaims particulaires
a. Principe de fonctionnement
b. Algorithme de base
6 Conclusion
2 Problรจmes de sรฉlection de variables
1 Introduction
2 Sรฉlection de variables
2.1 Problรฉmatique
2.2 Difficultรฉ de la sรฉlection dโattributs
2.2.1 Dimensionnalitรฉ
2.2.2 Pertinence dโattributs
2.2.3 Redondance
2.3 Processus global de sรฉlection de variables
2.3.1. Procรฉdure de gรฉnรฉration
a. Direction de recherche
b. Stratรฉgie de recherche
2.3.2 Fonction dโรฉvaluation
a. Information
b. Distance
c. Dรฉpendance
d. Consistance
e. Prรฉcision
2.3.3 Critรจre dโarrรชt
2.3.4 Procรฉdure de validation
3 Approches de sรฉlection de variables
3.1 Mรฉthode par Filtre
3.2 Approches ร adaptateur (Wrapper)
3.3 Approches intรฉgrรฉes (Embedded)
4 Mรฉtaheuristiques pour la sรฉlection de variables
5 Conclusion
3 Implรฉmentation de lโalgorithme OP-VAR
1 Introduction
2 Description du jeu de donnรฉes
2.1Description de la base de donnรฉes de diabรจte
2.2 Description de la base de donnรฉes Heart Statlog
2.3 Description de la base de donnรฉes Hepatitis
3 Environnement de dรฉveloppement
4 Critรจres dโรฉvaluation
5 Le model Op-Var
5.1 Description du classifieur SVM
5.1.1 Hyperplans sรฉparateurs dans un problรจme ร deux classes
5.2 Architecture du modรจle
5.2.1 Conception du chromosome
5.2.2 Conception de la fonction de remise en forme
5.2.3 รtapes de base de la mรฉthode GA-SVM
5.3 Choix des paramรจtres
5.4 Lโapproche GA-SVM dans la littรฉrature
5.5 Aperรงu sur lโinterface Op-Var
6 Validation Expรฉrimentale
6.1 Analyse des rรฉsultats
6.2 Etude comparative
6.2.1 Comparaison des rรฉsultats avec et sans sรฉlection
6.2.2 Comparaison des rรฉsultats avec les mรฉthodes Relief et Rank-Features
6.2.3 Comparaison avec les rรฉsultats de la littรฉrature
7 Conclusion
Conclusion gรฉnรฉrale
Annexes