صفحه 1:
In the name of God Soft Computing Esmat Rashedi Electrical Eng. Dept., KGUT, Kerman, Iran.

صفحه 2:
ارو رایانش نرم

صفحه 3:
optimization O Minimization O Maximization ‏لا کمینه یابی‎ ‏بيشينه يابى‎ Oo

صفحه 4:
Optimization problem 1 فرض کنید که هدف از بهينهسازي, پیدا کردن بيشینه تابع ۴ در یک دامنه ‎ae‏ ‏مشخصي باشد و مر ‎x <x, <x" fori =1,2,..m‏ ‎xX ¥‏ لا در این وضعیت, پیدا کردن مقاديري براي متفيرهاي تا مد نظر است که تایع ۴, به ازاي آنها بیشترین مقدار را به خود بگیرد. ‎Qo‏ به عبارتي هدف از بيشتهسازى» بافتري .. ,عراست به كونهاي كه =‘ ‎

صفحه 5:
Decision variables Variables tlhe sa jets 0 search 50866 ‏لا فضای جستجو‎ m=2 m=3 e

صفحه 6:
Search space O Search space is the m-dimensional space that determined by the boundaries of variables. O Agents search this space to find the best settings for variables. ‎i for q=1,2,..m‏ 4< قير > 1017 رفير ‎ ‎ ‎ ‎ ‎ ‎55 ‎ ‎ ‎ ‎ ‎

صفحه 7:
f(4,%,...Xm) Objective function Gs os O

صفحه 8:
Optimization Ol Methods of optimization ™ Derivative based methods (gradient base) = Derivative free مبتتی بر مشتق /بی نیاز از مشتق جستجوی‌همه جانبه ‎O Exhaustive Search‏ جستجویتصادفی 56۵۲6۳ 8۵00۳۱ لآ

صفحه 9:
Classic Optimization O Let © be an unknown parameter vector and J (© ) the corresponding cost function to be minimized. Function J (6 ) is assumed to be differentiable. O Gradient descent algorithm The algorithm starts with an initial estimate ©(0) of the minimum point and the subsequent algorithmic iterations are of the form: O(new) = @(old) + ‏0ح‎ ‎21 )( 06 0A old) where p> 0. If a maximum is sought, the method is known as gradient ascent and the minus sign in (C.2) is neglected. (cp AO = -u (C.2)

صفحه 10:
اع ‎٩ ٩‏ سک نک اقب سي نت 82 8 8 س5 8 ك8 88 8 كد alaorithm IOs ge FIGURE C.1: In the gradient descent scheme, the correction of the parameters takes place in the direction that decreases the value of the cost function. The new estimate @(new) is chosen in the direction that decreases J(9). The parameter 1 is very important and it plays a crucial role in the convergence of the algorithm. If it is too small, the corrections A@ are small and the convergence to the optimum point is very slow. if it is too large, the algorithm may oscillate around the optimum value and convergence is not possible 10

صفحه 11:
اع ‎٩ ٩‏ سک نک اقب سي نت 82 8 8 س5 8 ك8 88 8 كد algorithm "| However, if the parameter is | properly chosen, the / algorithm converges to a Z stationary point of / (@ ), which can be either, a local / ۱ minimum (9 1) or a global minimum (©) or a saddle point (2). . it converges to a point where 1 8 ° the gradient becomes zero. FIGURE ‏نع‎ A local ainimum, a global minimum and a sade pot of J(@) To which of the stationary points the algorithm will converge depends on the position of the initial point, relative to the stationary point: 11

صفحه 12:
Random search لا با تا ۲ 12 کر روشهای دسته ب» برای جستجوی بهینه در یک مسکله تیازی به مشتق تایم هدف تیست. کر عوض این روشها به دفعات به ارزیابی تابع هدف به ازای نقاطی از دامنه جستجوی مسئله میٍ چردازند و با استفاده از این اطلاعات و در نظر گرفتن یکسری الهامات شهودی جهت جستجو را تعیین میکنند. جستجوی ‎(Heuristic search algorithms) (5's!‏ ارلئه راه حلهای خوب (نزدیک بهینه) در یک زمان قابل قبول تضمینی برای یافتن جولب بهینه (بهترین جواب) نمیدهند فضای جستجو را بطور همه جانبه جستجو نمی کنند پس جزء روشهای جستجوی تفریبی بشمار می آیند منبع الهام این الگوریتم ها غالبا طبیعت است.

صفحه 13:
Heuristic algorithms: Examples اللكوريتم تکاملی ‎Evolutionary algorithm‏ - لآ اللكوريتم ورلثتى ‎O -Genetic Algorithm (GA)‏ بختشبيه سازئوشدم ‎Simulated annealing‏ - ۲ ‎Ant colony search algorithm (ACSA) / (ACO)‏ - لا الگوریتم جستجوی جمعیت مورچگان بهینه سازی‌جمعیتذر لت(50) 00۵1۵۱2۵۱0۴ 5۵۲۴۲ ۴۵۳۲616 - ۲ جستجوئتابو ‎O -Tabu search‏ جستجووير لكندم ‎O -Scatter search‏ سيستم ليمنى ‎O -Immune system‏ اللكوريتم جستجوی‌گرلتشی ‎Gravitational search algorithm (GSA)‏ - ۲ 13

صفحه 14:
خصوصیات روشهای جستجوی ابتکاری 0 8 14 عدم وابستكى أنها به توابع هدف مشتق يذير است (حل مسائل با توابع هدف بيجيده و غير مشتق بذيره بدون صرف هزينه بيشتر) بر پایه احتمالات عمل می کنند. یعتی اينکه برای دنبال کردن جهت جستجو از تلوری احتمالات و تولید دنبالههای تصادفی بهره میبرند (دلیل اصلی توانایی این روشها در یافتن بهینه فرامحلی در یک زمان قابل قبول) تحلیل ریاضی این روشها به دلیل خصوصیت اتفاقی بودن آنها و نیز وابسته بودن آنها به مستله این دانش ایجاد شده دربارهی این روشها بیشتر بر پایه مطالعات عملی و نتایج دشوار است. پیادهسازی است. روشهای جستجوی ابتکاری از نوع روشهای تکرار شونده هستند. یعنی اینکه الگوریتم به دقعات تکرار ميشود. در اینگونه روشها اید نحوه پایان یافتن الگوریتم مشخص شود.

صفحه 15:
Optimum O Local optimum ‏بهینه محلی‎ O Global optimum cls |) ‏بهینه‎ ‎O Sub optimum 4424.4

صفحه 16:
قالب کلی الگوربتمهای جستجوی ابتکاری ۴- اگر شرط توقف ب رآورده نشده است؛ برو به مرحله ۲ 16

صفحه 17:
Population فضای جستجوی چند بعد: >{ ‎.e‏ بسانت

صفحه 18:
قالب کلی تولید اعضاء جدید به کمک عملگرهای الگوریتم 006۲10۳5انجام می شود. هر الگوریتم تعدادی عملگر ساده دارد. .__. ۲ ۱ الگوریتم تکرارشونده است. هر تکرار یک 106۳31101 يا یک 1۲6 نامیده می شود. (تکرار یا لحظه) 18

صفحه 19:
General form of the population based heuristic search algorithms ۳ Random Settings Evaluation operators End criteria? Yes esul 19

صفحه 20:
ویژگی های الگوریتم های جستجوی (بهینه سازی) ابتکاری O Optimization O Search algorithms O Heuristic algorithms O Population based (Agents) O Iterative search O Random search O Parallel search

صفحه 21:
O Convergence O Exploration / diversification O Exploitation / intensification

صفحه 22:
Evaluation = ارزیابی اعضا در ابتدای هر تکرار انجام می شود. Xp te ‏حل‎ probj: وزطه8 15 2 Fobjy لا تعداد کل ارزیابی ها ‎O Total Number of fitness evaluations‏ ‎(FEs)‏

صفحه 23:
Comparison O Experiments and comparison لا الگوریتم ها از طریق آزمایش و مقایسه با سایر روش ها بررسی می شوند. لا معیار مقایسه دقت جواب ها و زمان رسیدن به پاسخ است. 23

صفحه 24:
Various Versions of algorithms Single objective ‏تكهفه‎ ‎O Multi-objective i> as Un-constraint ‏نامقيد‎ ‎O Constraint ‏مقید‎ Real ‏حقیقی‎ ‎O Binarys ue O Discrete «iu.

39,000 تومان