صفحه 1:
In the name of God
Soft Computing
Esmat Rashedi
Electrical Eng. Dept.,
KGUT, Kerman, Iran.
صفحه 2:
ارو
رایانش نرم
صفحه 3:
optimization
O Minimization
O Maximization
لا کمینه یابی
بيشينه يابى Oo
صفحه 4:
Optimization problem
1 فرض کنید که هدف از بهينهسازي, پیدا کردن بيشینه تابع ۴ در یک دامنه
ae
مشخصي باشد و مر
x <x, <x" fori =1,2,..m
xX ¥
لا در این وضعیت, پیدا کردن مقاديري براي متفيرهاي تا مد
نظر است که تایع ۴, به ازاي آنها بیشترین مقدار را به خود بگیرد.
Qo به عبارتي هدف از بيشتهسازى» بافتري .. ,عراست به كونهاي كه
=‘
صفحه 5:
Decision variables
Variables tlhe sa jets 0
search 50866 لا فضای جستجو
m=2 m=3
e
صفحه 6:
Search space
O Search space is the m-dimensional space that
determined by the boundaries of variables.
O Agents search this space to find the best
settings for variables.
i for q=1,2,..m 4< قير > 1017 رفير
55
صفحه 7:
f(4,%,...Xm) Objective function Gs os O
صفحه 8:
Optimization
Ol Methods of optimization
™ Derivative based methods (gradient base)
= Derivative free
مبتتی بر مشتق /بی نیاز از مشتق
جستجویهمه جانبه O Exhaustive Search
جستجویتصادفی 56۵۲6۳ 8۵00۳۱ لآ
صفحه 9:
Classic Optimization
O Let © be an unknown parameter vector and J (© ) the
corresponding cost function to be minimized. Function J
(6 ) is assumed to be differentiable.
O Gradient descent algorithm
The algorithm starts with an initial estimate ©(0) of the
minimum point and the subsequent algorithmic
iterations are of the form:
O(new) = @(old) + 0ح
21 )(
06 0A old)
where p> 0. If a maximum is sought, the method is known
as gradient ascent and the minus sign in (C.2) is
neglected.
(cp
AO = -u
(C.2)
صفحه 10:
اع ٩ ٩ سک نک اقب سي نت 82 8 8 س5 8 ك8 88 8 كد
alaorithm
IOs
ge
FIGURE C.1: In the gradient descent scheme, the correction of the parameters
takes place in the direction that decreases the value of the cost function.
The new estimate @(new) is chosen in the direction that decreases J(9).
The parameter 1 is very important and it plays a crucial role in the
convergence of the algorithm.
If it is too small, the corrections A@ are small and the convergence to the
optimum point is very slow.
if it is too large, the algorithm may oscillate around the optimum value and
convergence is not possible
10
صفحه 11:
اع ٩ ٩ سک نک اقب سي نت 82 8 8 س5 8 ك8 88 8 كد
algorithm
"|
However, if the parameter is
| properly chosen, the
/ algorithm converges to a
Z stationary point of / (@ ),
which can be either, a local
/ ۱ minimum (9 1) or a global
minimum (©) or a saddle
point (2).
. it converges to a point where
1 8 ° the gradient becomes zero.
FIGURE نع A local ainimum, a global minimum and a sade pot of J(@)
To which of the stationary
points the algorithm will
converge depends on the
position of the initial point,
relative to the stationary
point:
11
صفحه 12:
Random search
لا با تا ۲
12
کر روشهای دسته ب» برای جستجوی بهینه در یک مسکله تیازی به مشتق تایم هدف تیست. کر
عوض این روشها به دفعات به ارزیابی تابع هدف به ازای نقاطی از دامنه جستجوی مسئله میٍ
چردازند و با استفاده از این اطلاعات و در نظر گرفتن یکسری الهامات شهودی جهت جستجو را
تعیین میکنند.
جستجوی (Heuristic search algorithms) (5's!
ارلئه راه حلهای خوب (نزدیک بهینه) در یک زمان قابل قبول
تضمینی برای یافتن جولب بهینه (بهترین جواب) نمیدهند
فضای جستجو را بطور همه جانبه جستجو نمی کنند پس جزء روشهای جستجوی تفریبی
بشمار می آیند
منبع الهام این الگوریتم ها غالبا طبیعت است.
صفحه 13:
Heuristic algorithms: Examples
اللكوريتم تکاملی Evolutionary algorithm - لآ
اللكوريتم ورلثتى O -Genetic Algorithm (GA)
بختشبيه سازئوشدم Simulated annealing - ۲
Ant colony search algorithm (ACSA) / (ACO) - لا
الگوریتم جستجوی جمعیت مورچگان
بهینه سازیجمعیتذر لت(50) 00۵1۵۱2۵۱0۴ 5۵۲۴۲ ۴۵۳۲616 - ۲
جستجوئتابو O -Tabu search
جستجووير لكندم O -Scatter search
سيستم ليمنى O -Immune system
اللكوريتم جستجویگرلتشی Gravitational search algorithm (GSA) - ۲
13
صفحه 14:
خصوصیات روشهای جستجوی ابتکاری
0
8
14
عدم وابستكى أنها به توابع هدف مشتق يذير است (حل مسائل با توابع هدف بيجيده و غير
مشتق بذيره بدون صرف هزينه بيشتر)
بر پایه احتمالات عمل می کنند. یعتی اينکه برای دنبال کردن جهت جستجو از تلوری احتمالات
و تولید دنبالههای تصادفی بهره میبرند (دلیل اصلی توانایی این روشها در یافتن بهینه فرامحلی
در یک زمان قابل قبول)
تحلیل ریاضی این روشها به دلیل خصوصیت اتفاقی بودن آنها و نیز وابسته بودن آنها به مستله
این دانش ایجاد شده دربارهی این روشها بیشتر بر پایه مطالعات عملی و نتایج
دشوار است.
پیادهسازی است.
روشهای جستجوی ابتکاری از نوع روشهای تکرار شونده هستند. یعنی اینکه الگوریتم به دقعات
تکرار ميشود. در اینگونه روشها اید نحوه پایان یافتن الگوریتم مشخص شود.
صفحه 15:
Optimum
O Local optimum بهینه محلی
O Global optimum cls |) بهینه
O Sub optimum 4424.4
صفحه 16:
قالب کلی الگوربتمهای جستجوی ابتکاری
۴- اگر شرط توقف ب رآورده نشده است؛ برو به مرحله ۲
16
صفحه 17:
Population
فضای جستجوی چند بعد:
>{
.e
بسانت
صفحه 18:
قالب کلی
تولید اعضاء جدید به کمک عملگرهای الگوریتم 006۲10۳5انجام می شود.
هر الگوریتم تعدادی عملگر ساده دارد. .__. ۲ ۱
الگوریتم تکرارشونده است. هر تکرار یک 106۳31101 يا یک 1۲6 نامیده می شود. (تکرار یا لحظه)
18
صفحه 19:
General form of the population
based heuristic search algorithms
۳ Random
Settings
Evaluation
operators
End
criteria?
Yes
esul 19
صفحه 20:
ویژگی های الگوریتم های جستجوی (بهینه سازی)
ابتکاری
O Optimization
O Search algorithms
O Heuristic algorithms
O Population based (Agents)
O Iterative search
O Random search
O Parallel search
صفحه 21:
O Convergence
O Exploration / diversification
O Exploitation / intensification
صفحه 22:
Evaluation
= ارزیابی اعضا در ابتدای هر تکرار انجام می شود.
Xp te حل probj:
وزطه8 15
2
Fobjy
لا تعداد کل ارزیابی ها
O Total Number of fitness evaluations
(FEs)
صفحه 23:
Comparison
O Experiments and comparison
لا الگوریتم ها از طریق آزمایش و مقایسه با سایر روش ها بررسی
می شوند.
لا معیار مقایسه دقت جواب ها و زمان رسیدن به پاسخ است.
23
صفحه 24:
Various Versions of algorithms
Single objective تكهفه
O Multi-objective i> as
Un-constraint نامقيد
O Constraint مقید
Real حقیقی
O Binarys ue
O Discrete «iu.