السلام عليكم - reussirlem1info

Download Report

Transcript السلام عليكم - reussirlem1info

Université des Sciences et de la Technologie d’Oran
-Mohamed BoudiafFaculté des Sciences
Département d’Informatique
Optimisation Avance
Thème:
Recherche dispersée
Année Universitaire 2012 / 2013
Optimisation avancée
1
Introduction
Historique
Définition
Principe de la méthode
Algorithme
Domaines d’application
Exemple d’application
Les Avantages et les inconvénients
Conclusion
Optimisation avancée
2
• Les métaheuristiques forment un ensemble de méthodes utilisées en
recherche opérationnelle pour résoudre des problèmes d’optimisation
réputés difficiles. On peut distinguer deux approches en méta
heuristiques:
1. Les approches trajectoire (recherche locale): Ces algorithmes
partent d’une solution initiale (obtenue de façon exacte, ou par
tirage aléatoire)
2.
les approches population ( évolutionnaires): Elles consistent à
travailler avec un ensemble de solutions simultanément, que l’on
fait évoluer graduellement. L’utilisation de plusieurs solutions
simultanément permet naturellement d’améliorer l’exploration de
l’espace des configurations.
Optimisation avancée
3
La recherche dispersée ou « Scatter Search » en anglais, est une
méthode d’évolution qui a été proposée par Glover en 1977.
Le concept fondamental et le principe général de cette méthode
ont été proposés en premier lieu dans les années 70 comme une
heuristique basée sur une formulation donnée dans les années 60
pour les règles de décision de combinaison et les contraintes de
problème.
Optimisation avancée
4
La recherche dispersée du point de vue classification des
métaheuristiques est une méthode d’évolution qui est basée sur la
population. Elle construit des solutions par la combinaison d’autres
solutions en se basant sur des principes qui capturent l’information qui
n’existe pas dans les solutions originales.
Le rôle de cette méthodologie est de mettre en oeuvre des procédures
permettant de dériver des nouvelles solutions à partir des éléments
combinés, en vue d’obtenir une meilleure solution que des solutions
basées seulement sur des ensembles originaux d’éléments.
Optimisation avancée
5
P
Méthode de generation
Méthode
de diversification
d’amélioration
Méthode de Combinaison
Méthode
Méthode de
de solutions
d’amélioration
M-a-j de refSet
s
s
s
Méthode de Génération
de Sous-ensembles
RefSet
TEST d’ARRET
Optimisation avancée
6
Les caractéristiques avancées de la recherche dispersée sont liées à la manière
de la mise en œuvre de ses éléments. Ces éléments sont dits "méthodes"
pour la recherche dispersée, qui peuvent être présentés comme suit:
• Méthode de génération de diversification : génère une collection de divers
solutions de départ en utilisant une solution d’essai arbitraire
• Méthode d’amélioration : transforme la solution d’essai générée par la méthode
de diversification à un ou plusieurs solutions plus efficaces
• Méthode de mise à jour de l’ensemble de référence: construit un ensemble de
référence constitué des meilleures solutions trouvées pour donner l’accès par
autres parts de la recherche
• Méthode de génération des sous ensembles : génère des sous ensembles à partir
de L’ensemble de référence. Chaque sous ensemble de solutions est utilisé pour
créer des solutions combinées
• Méthode de combinaison de solutions : génère un ou plusieurs solutions en
combinant les solutions de chaque sous ensemble donné par la méthode
7
précédente
Optimisation avancée
L’algorithme général de la recherche dispersée [GLO97] [GLO98] est constitué
de deux phases: phase d’initialisation et phase d’évolution.
Phase d’initialisation :
1.
génération des solutions de départ aléatoirement.
2.
transformer les solution de départ en une ou plusieurs solution amélioré
3.
Répéter l’exécution de l’étape 1 et 2 jusqu’ à l’obtention d’un nombre voulu de
solutions qui constitueront la population initiale de l’ensemble de référence.
Optimisation avancée
8
 Phase d'évolution:
4. Générer des sous ensembles de la population de l’ensemble de référence à partir des
quels seront construites les solutions
5.
pour chaque sous ensemble X produit à l’étape 4 on applique une technique de
combinaison des solutions pour produire l’ensemble C(X) qui consiste en une ou
plusieurs solutions combinées
6.
pour chaque solution produite à l’étape 5 appliquer la méthode d’amélioration
pour avoir une (ou plusieurs) solution(s) de bonne qualitée
7.
Si aucune solution n’est produite à l’étape 6, alors on réinitialise la population
avec l'ensemble élit et on reprend à partir de l’étape 2.
8.
Répéter l’exécution des étapes de 5 à 7 jusqu’à la rencontre d’un critère d’arrêt qui
est le plus souvent un nombre maximum d’itérations atteint
Optimisation avancée
9
Du fait de sa redécouverte récente, les applications de la recherche dispersée sont
peunombreuses. Dont on cite:
• ·Les travaux de Campos, Laguna et Marti pour le problème d'ordonnancement
linéaire.
•
Les travaux de Hamiez et Hao pour le problème de coloration de graphe.
•
Les travaux de Ghalouche, Crainc et Gendreau pour le problème de
conception des réseaux à faible capacité.
•
Les travaux de Cung et al pour l'affectation quadratique.
Optimisation avancée
10
Exemple du Sac à Dos(0-1) Maximiser
11x1+10x2+9x3+12x4+10x5+6x6+7x7+5x8+3x9+8x10
Objectif
33x1+27x2+16x3+14x4+29x5+30x6+31x7+33x8+14x9+18x10100
xi={0,1} pour i=1,…,10
x’i=1-xi
La solution x est choisie comme solution initiale: x=(0,0,0,0,0,0,0,0,0,0)
h
x'
x''
1
(1,1,1,1,1,1,1,1,1,1)
(0,0,0,0,0,0,0,0,0,0)
2
(1,0,1,0,1,0,1,0,1,0)
(0,1,0,1,0,1,0,1,0,1)
3
(1,0,0,1,0,0,1,0,0,1)
(0,1,1,0,1,1,0,1,1,0)
4
(1,0,0,0,1,0,0,0,1,0)
(0,1,1,1,0,1,1,1,0,1)
5
(1,0,0,0,0,1,0,0,0,0)
(0,1,1,1,1,0,1,1,1,1)
Optimisation avancée
11
1. Génération de diversification
Solution
Solution d’essai
Valeur objective
Poids
3
(1,0,0,1,0,0,1,0,0,1)
38
96
4
(1,0,0,0,1,0,0,0,1,0)
24
76
5
(1,0,0,0,0,1,0,0,0,0)
17
63
6
(0,0,0,0,0,0,0,0,0,0)
0
0
Optimisation avancée
12
1. Génération de diversification
Ratio 
Coefficient de xi dans la fonction Objective
Coefficient de xi dans la fonction de maximisation
(0,1,1,0,1,1,0,1,1,0)
Objective =43
maximum= 149
x1 = 0.333
x2 = 0.370
x3 = 0.563
x4 = 0.857
x5 = 0.345
x6 = 0.200
x7 = 0.226
x8 = 0.152
x9 = 0.214
x10 = 0.444
Optimisation avancée
13
2. Méthode d’amélioration
Itération
Solution courante
valeur
objective
Poids total
Variables à
modifier
Variable
séléctionnée
1
(0,1,1,0,1,1,0,1,1,0)
43
149
x2 = 0 (0,370)
X8 = 0
x3= 0 ( 0,563)
x5= 0 ( 0,345)
x6 = 0 ( 0.200)
X8 = 0(0,152)
X9 =0 (0.214)
2
(0,1,1,0,1,1,0,0,1,0)
38
116
X2 =0 (0,370)
x6 = 0
X3=0 (0,563)
X5=0 (0,345)
x6=0 (0,200)
X9=0 (0,214)
3
(0,1,1,0,1,0,0,0,1,0)
4
(0,1,1,1,1,0,0,0,1,0)
32
86
44
100
Optimisation avancée
x4=1 (0,857)
x4=1
--14
2. Solutions améliorées
Solution
Solution améliorée
Valeur objective
1
(0,1,1,1,0,0,0,0,1,1)
42
2
(1,0,1,1,1,0,0,0,0,0)
42
3
(1,0,0,1,0,0,1,0,0,1)
38
4
(1,0,0,1,1,0,0,0,1,0)
36
5
(1,0,1,1,0,1,0,0,0,0)
38
6
(0,1,1,1,0,0,0,0,0,1)
39
7
(0,1,0,1,0,1,0,0,0,1)
36
8
(0,1,1,1,1,0,0,0,1,0)
44
Optimisation avancée
15
3. Mise à jour de L’ensemble de référence
Distance: (Solution 1 et Solution 3)
•
•
•
(0, 1, 1, 1, 0, 0, 0, 0, 1, 1) Solution 1
(1, 0, 0 ,1, 0, 0, 1, 0, 0, 1) Solution 3
(1+1+1+0+0+0+1+0+1+0) = 5
Solution 1 : (0, 1, 1, 1, 0, 0, 0, 0, 1, 1)
Solution 2 : (1, 0, 1, 1, 1, 0, 0, 0, 0, 0)
Solution 8 : (0, 1, 1, 1, 1, 0, 0, 0, 1, 0)
Candidate
Solution
Distance entre solutions
Solution 1
Solution 2
Solution 8
Distance
minimal
3
(1,0,0,1,0,0,1,0,0,1)
5
4
7
4
4
(1,0,0,1,1,0,0,0,1,0)
5
2
3
2
5
(1,0,1,1,0,1,0,0,0,0)
5
2
5
2
6
(0,1,1,1,0,0,0,0,0,1)
1
4
3
1
7
(0,1,0,1,0,1,0,0,0,1)
3
6
5
3
Optimisation avancée
16
4. Generation des sous-ensembles
Solution
Solution
Objective
Value
1
(0,1,1,1,0,0,0,0,1,1)
42
2
(1,0,1,1,1,0,0,0,0,0)
42
8
(0,1,1,1,1,0,0,0,1,0)
44
3
(1,0,0,1,0,0,1,0,0,1)
38
7
(0,1,0,1,0,1,0,0,0,1)
36
Type 1 Solutions Type 2 Solutions
(1,2) (1,8) (1,3) (1,7)
(2,8) (2,3) (2,7)
(8,3) (8,7)
Type 3 Solutions Type 4 Solutions
(1,2,8) (1,3,8) (1,7,8)
(1,2,8,3) (1,7,8,2)
(2,3,8) (2,7,8)
(3,7,8,1)
(1,2,8,3,7)
(3,7,8)
(3,7)
Optimisation avancée
17
5. Combinaison des Solutions
Score( xi ) 
j
 OV ( j )  xi
jS
 OV ( j )
jS
Sol’n
x1
x2
x3
x4
x5
x6
x7
x8
x9
x10
3
0.322
0.000
0.000
0.322
0.000
0.000
0.322
0.000
0.000
0.322
7
0.000
0.305
0.000
0.305
0.000
0.305
0.000
0.000
0.000
0.305
8
0.000
0.373
0.373
0.373
0.373
0.000
0.000
0.000
0.373
0.000
Total
0.322
0.678
0.373
1.000
0.373
0.305
0.322
0.000
0.373
0.627
0,
0,
0,
1

xi  
0
x’ = (
0,
1,
0,
1,
if score (i) > 0.5
0,
0,
Optimisation avancée
1 )
18
Avantages et inconvénients
Un des avantages de la recherche dispersée
et des algorithmes génétiques est aussi
qu’ils génèrent plusieurs solutions de bonne
qualité. Cela peut être intéressant dans
différents contextes lorsqu’il est demandé
de fournir plusieurs solutions élites.
Couteuse en temps de calcule
Prend aussi l’avantage de quelques
méthodes heuristiques pour sélectionner les
éléments quivont être combinés pour
générer une nouvelle solution.
Optimisation avancée
19
• La recherche dispersée est une métaheuristique qui est basée sur l’évolution
de la population. Durant la recherche, elle capture l’information dans les sous
ensembles pour construire de nouvelles solutions, et elle conserve les deux
grandeurs (diversité, qualité) de l’ensemble de référence. La recherche
dispersée est constituée essentiellement par des méthodes de base. Entre ces
méthodes, les méthodes de combinaison et les méthodes d'amélioration, qui
sont liées au problème à traiter.
• La recherche dispersée est souvent comparée aux algorithmes génétiques, on
trouve quelques différences :


Dans la recherche dispersée, toutes les solutions participent à la combinaison.
L’évolution de la population, est contrôlée par des règles déterministes, contrairement aux
algorithmes génétiques, qui utilisent la randomisation.
 La population n’est pas générée de manière aléatoire comme dans les algorithmes génétiques.
Optimisation avancée
20
•
[Glo, 94] F. Glover, Tabu search for nonlinear and parametric optimization (with links to genetic
algorithms). Discrete Applied Mathematics, 49 , 231–255.1994.
•
[Glo, 63] F. Glover, Parametric combinations of local job shop scheduling rules. Chapter IV, NR
Research Memorandum No. 117, GSIA, Carnegie Mellon University, Pittsburgh, PA.1963.
•
[Glo, 98] F. Glover , A template for scatter search and path relinking. In: J.-K. Hao, E. Lutton, E.
Ronald, M. Schoenauer and D. Snyers (eds.), Artificial Evolution, Lecture Notes in Computer
Science 1363. Springer, pp. 3–51. 1998
•
[Glo, 97] F. Glover , Tabu search and adaptive memory programming—advances, Applications
and challenges. In. R. Barr, Helgason and Kennington (Co-eds.), Advances in Meta-heuristics,
Optimization and Stochastic Modeling Techniques. Kluwer Academic Publishers, Boston, USA,
pp. 1–175. 1997.
•
[LAP, 96] G. LAPORTE, I.H. OSMAN, Metaheuristics in combinatorial optimization, Annals of
Operations Research 63, J.C. Baltzer Science Publishers, Basel, Switzerland, 1996.
•
[REE 93, AAR 97] C.R. REEVES (Ed.) Modern heuristic techniques for combinatorial problems,
Blackwell Scientific Publications, Oxford, 1993.
Optimisation avancée
21
Optimisation avancée
22