سایر

الگوریتم های جدید بر اساس اتوماتای یادگیر برای یافتن پارامترهای ویولت

تعداد اسلايدهاي پاورپوينت: 81 اسلايد پاورپوینت الگوریتمهای جدید بر اساس اتوماتای یادگیربرای یافتن پارامترهای ویولت

ashkan

صفحه 1:

صفحه 2:
چگیعم #ویولتها قادر هستند که یک تابع را در دقتهای مختلف تقریب بزنند. این خاصیت آنها را برای مدل سازی و تقریب سیستمهای غیر خطی مناسب ساخته است . برای بدست [وردن یک تقریب مناسب مماسبه پارامترهای توابع پایه ویولت از اهمیت زیادی برخوردار است . برای محاسبه پارامترهای توابع پایه ویولت روشهای متعددی از جمله روشهای بر مبنای شبکه های عصبی (ویونت ) بکار برده شده است . در این مقاله روش جدیدی بر اساس اتوماتای یادگیر برای محاسبه پارامترهای ویولت ارائه گردیده است .

صفحه 3:

صفحه 4:
مقحصم #نمایش یک تابع به صورت بسط یک سری توابع پایه نقش مهمی در پردازش سیکنال . مدل سازی و تقریب توابع دارد. به عنوان مثال از بسط فوریه در دستگاه مثلئاتی برای پردازش سیگنال در هوزه فرکانس ویا از شبکه های عصبی به عنوان ابزاری برای مدل سازی و تقریب سیستم های غیر خطی بر اساس داده ‎Gla‏ ورودی -فروجی استفاده شده است . اما ضرائب خجریه بیشتر خواص فرکانسی سیگنال را بیان می کنند. بنابراین بسط یک تابع بر اساس یک سری توابع پایه

صفحه 5:
خب ۱7 # که به خوبی در بعد زمان و فرکانس متمرکز ‎ene sats‏ مفید خواهد بود. بسط توابع با توجه به تئوری ویولت , که یک تابع " به صورت مجموعه ای از توابع پایه در وضوههای را برآورده می سازد[۱]. ۰

صفحه 6:
خب ۱7 #ثابتی هستند دارای ساختاری پویا می باشد یعنی تعداد توابع پایه از قبل مشخص نمیکردد بلکه در مین فرایند تقریب تعیین میشود. روش پیشنهادی برروی مسائل متنوعی آ[مایش شده است و نتایم بسیارخوبی بدست امده است . 9

صفحه 7:
روش پیشنهادی از قدرت تصمیم گیری و جستجوی اتوماتای یادگیراستفاده کرده و در هر مرمله با اضافه کردن ویولت جدید به تقریب قبلی و حذف ویولتهایی که به کاهش خطا کمکی نمی کنند سعی در کاهش خطا می نماید. روشهای پیشنهادی بر خلاف روش یادگیری 1.۲ که نیاز به محاسبات بسیار بالائی ( از جمله معکوس کردن یک ماتریس با ابعاد بالا برای تعداد زیاد نمونه ها ) از محاسبات کمتر و بسیار ساده تری برخوردار است . همچنین بر خلاف ‎GAY‏ ‏روشهای بر پایه شبکه های عصبی که دارای ساختار

صفحه 8:
در این مقاله روشی مبتتی بر اتوماتای یادگیر برای تعین پارامترهای ویولت بمنظور تقریب توابع پیشنهاد میگردد. یکی از مزیتهای روشهای ييشنهادى تعيين تعداد توابع يايه به صورت يويا مى باشد. بدین معنی که تعداد توابع پایه از قبل مشخص نمی باشد بلکه همزمان با فرایند تقریب مشخص می شود. در این روشها در هر مرمله با اضافه کردن و یا کم کردن یک ویولت سعی در کاهش خطا ميشود. نتایع شبیه سازیها با روشهای پیشنهادی نشان می دهد که با تعداد توابع پایه کمتری میتوان به نتایج مشابه روشهای موجود دست يافت .

صفحه 9:
لنحد #خلاصه ای از تئوری ویولت در ‎P add‏ 9 مروری بر اتوماتاهای يادكير در بفش ۳ آمده است. در بخش ۴ الگوریتم های یادگیری ویولت را مرور خواهیم کرد. #لگوریتمهای پیشنهادی در قسمت ۵ و نتایج شبیه سازی بر روی چند مساله نمونه در قسمت + آمده است . در انتهای مقاله نتایج را مورد بررسی قرار خواهیم داد. #اصول ویولت ۱ #تتورى ويولت ابتدا توسط مورلت و گروسمن در زمینه پردازش سیگنال مطرم شد [۷]. سپس تقریب چند دقتی توسط مالات ارائه شد و

صفحه 10:
دوبیشیز خانواده وسیعی از ویولتهای مختلف را ارائه نمود[۲[]۳] ‎[A]‏ بر اساس این تئوری تمام توابع حقیقی ) ‎G4 F)X(E LPR‏ توانند به صورت یک ترکیب خطی از یک سری توابع پایه متعامد ویولت به فرم ‎ind olox(ym,K)‏ 9

صفحه 11:
خب ۱7 0 a ۶0- 5 ۲ ‏ربنم‎ ‏مد م > رز‎ 0) 0 ۷2 زب زا 0

صفحه 12:
خب ۱7 #که در آن ۲۲ و > به ترتیب ضرائب انتقال و تأخیر و ۲-۲0/۲ ضریب نرمالیز کردن انرژی می باشند. معادله (۱) نشان می دهد که مجموعه ای از میولتها با تأفیر و انتقال یک تابع ویولت مادر (۷۵۵ بدست می آید. اکنون اگر از تقریب. ۲0۰ شروع کنیم معادله () را می توان به صورت زیر نشان داد.

صفحه 13:
ات سح تر تلبع. مقياس. كننحه ص نلهنه و بت صورت زير تعييفد عي شوه 2+ 0 ‎mk‏ سن م 8 ‎F(x)= Fo(s)+‏ 1 ۱ ص دخ مم د ور 0)

صفحه 14:
تقسم یدای سل هرا از بان تواسرآی دس بفقت که به سویت زیر بیان مي. شود m kez) ‏روف‎ > 2۳ ۸2۳ -k ‏م‎ ‏بنابر اين خواهيم داشت‎ Fo(x)= = ‏وف وه‎ (*) F\(x)=F ore FO.KY ORC)

صفحه 15:
خب ۱7 1 00 w=s-1 OSSrel 0 otherwise ۳ ۳ ۱ 05141 2 otherwise

صفحه 16:
#معادله (۱) را میتوان در قالب شبکه های عصبی نشان داد. این شبکه ها که ویونت نامیده میشوند توسط بخشی و استفانوپولس در سال ‎٩۳‏ معرفی گردید[۵[]۹]. آنها یونتها را به صورت یک شبکه عصبی چند دقتی سلسله مراتبی با یک لایه مخفی که توابع فعالیت. نرونهای آنها توابع پایه متعامد میباشند در نظرگرفتند . البته می توان به جای ویولتهای متعامد یکه از نمونه های دیگر ویولتها نیز استفاده کرد. برای طرامی کامل شبکه های ویونت باید نوع توابع بکاررفته . تعداد گره ها یبعنی تعداد ویولتها و یک الگوریتم یادگیری برای بدست آوردن ثابتهای ۵و كرا مشخص کرد[٩].‏

صفحه 17:
#اتوماتای یادگیر: اتوماتای یادگیر یک مدل انتزاعی است که تعداد معدودى عمل را مى تواند انجام دهد. هر عمل انتخاب شده توسط محیطی اهتمالی ارزیابی شده و پاسخی به اتوماتای یادگیر داده می شود. اتوماتای یادگیر از این پاسخ استفاده نموده وعمل 394 را برای مرهله بعد انتخاب می کند[۱۱[]۱۲] [۰]۱۰ شكل ‎)١(‏ ارتباط بين اتوماتای یادگیر و محیط را نشان می دهد.

صفحه 18:
خب ۱7 شكاءاء ايتبلط بين لتوعلتلي يلحكير و محیط - Random Environment Leaming Automata

صفحه 19:
محيط ۳معحیط یا می؛ توان. توسط سه تلیی. (), 6 ,6-43 نشان. حلد كه حر آنه لب .) '! مجموعه وروحيها © إلا81,8,...,8) 8ع مجموعه خروجیها و (6<010۱:0,...,6مجموعه امتمالهای جریمه می بلشد. هر گله 3 مجموعه دو عضوی باشد . محیط از نوع 2 می باشد #ممیطی ۱< ۲ به عنوان جریمه و ‎ -۰‏ به عنوان ياداش. در نظر كرفته می شود. در محیط از نوع ‎)Q.B)n‏ #می تواند به طور گسسته یک مقدار از مقادیر محدود در اأره] ودر محيط از نوع 5.5(12(در فاصله ١[,ه]‏ است . #می باشد. در محیط ایستله مقادیرژه. حال آنکه در محیط غیر ایستا این مقلدیر در طی زمان تغییر می کنند. اتوماتای یادگیربه دو گروه با ساختار ثلبت و با ساختار متفیر تقسیم می گردند. e

صفحه 20:
خب ۱7 #اتوماتای 1.۲۲ آ: این اتجماتا تعداد پاداش ها و جریمه های در یافت شده برای هر عمل را نگهداری کرده و تنها زمانی که تعداد جریمه ها بیشتر از تعدادپاداش ها مى كردد . عمل دیگر را انتفاب می کند. نمودار تغییر وضعیت این اتوماتا مطابق شکل (۲) می باشد.

صفحه 21:
خب ۱7 شکل, ۳ نعوحار تغییرٍ وضعیت لتوملتان ۱۲,۲ ۱۱ پاسخ مطلوب 0-م 1 2 3 0 20۳1 ۱۵ ۱۵ ۱۱ پاسخ نا مطلوب دم

صفحه 22:
اتوعاتای یاحگیر با ساختا ستغیر #اتوماتای یاد گیر با ساختار متغیر۹: اتوماتای یادگیر با ساختار متغیر توسط > ‎Geoosl gli {a,B,p,T} (5G‏ شود که در آن ‎=a{al,a,...,aP}‏ مجموعه عمل ‎Glogs) glo‏ ‎acgoos =B{,B,...B,B }‏ ورودیهای اتوماتاء (10۱:01:۰..,0۷ 0 بردار احتمال انتخاب هر یک از عملها و ((۲)0:) ۲( ۲۳,۳5 (12)0+۱(<(۵ الگوریتم یادگیری می باشد. در اين نوع از اتوماتاهاء اگر عمل 31 در مرحله 12 ام انتخاب شود و ياسخ مطلوب از محیط دریافت نماید. امتمال (ظ)01 افزایش یافته و سایر امتمالها

صفحه 23:
خب ۱7 © كاهش مى يابند. و براى ياسخ نامطلوب احتمال (1)21 كاهش يافته 9 ساير احتمالها افزايش مى يابند. در هر حال . تغييرات به كونه اى صورت مى كيرد تا حاصل جمع (01) ها همواره ثابت و مساوی یک باقی بماند. الگوریتم زیر یک نمونه از الگوریتمهای یادگیری خطی در اتوماتای با ساختار ثابت است [۱۴].

صفحه 24:
خب ۱7 angling gals = scl Pnt+)=p,)+d1-p,@)] p,(n+1) =(1-a)p,(n) jeiy ‏ب- پاسخ نامطلوب‎ («) ,دز( -1) > (1 + )رز b jet ۷[ ‏رم‎ + 1( == +0-D)p,m)

صفحه 25:
خب ۱7 ‎bil) > ©‏ فوق ۰ 2 پارامتر پاداش و 3 پارامتر جریمه می باشد. با توجه به مقادیر ‏ و 12 سه حالت زیر را می توان در نظر گرفت . ‎ ‏زمانیکه <۱ز 2 خیلی کوچکتر باشد. الگوریتم را فآ می نامیم 9 زمانیکه < مساهی صفر باشد. الگوریتم را ‎LR‏ می نامیم .

صفحه 26:
اتوماتلی؛ يلحكير با لقحلم پیوسته ‎e‏ اتوماتاى يادكير با اقدام بيوسته : اين اتوماتا داراى يك اقدام است اما این اقدام در هر مرمله از تکرار می تواند مقادیر مختلف )| اختيار كند[ه1]. ( به بیان دیگر این انوماتا میتواند دارای بینهایت. اقدام باشد.4 اين اقدام به صورت یک متفیر تصادفی پیوسته ,< که مقادیر خود را در فاصله [2220112, 0< ]اختيار میکند در نظر گرفته می شود. بنابراین تابع توزیع اهتمال کسسته در هر مرحله از تكرار 12 با تابع چگالی اهتمال (7)5, جایگزین میشود كه رابطه زير در مورد آن برقرار است .

صفحه 27:
۱7 ‏خب‎ ‎۱ lite! ft tT 4

صفحه 28:
#تابع توزایع اولیه (مرمله صفدر) ظارتامبع ی یککینرویاخت به صورت . سپس در هر مرمله تکرار یک عدد تصادفی (۱)2 در فاصله ‎slays! [oll‏ کرده واقدام (۱6 به صجرتی انتخاب می شود تا بر قرارشود. آنگاه اقدام (۱۵ بر صنص‌نروی محیط اعمال مى شود. نتیجه اقدام ممکن است. به صورت مجفقیت یا شکست. یا یک تابع ارزیابی به صورت ‎OLY N(B)‏ شود. اکنون با توجه به مقدار (0)5 چگالی امتمال ()۲۱, به صورت زیر تصمیح می شود.

صفحه 29:
خب ۱7 #که در آن یه گونه ای انتماب می شود تا رابطه برقرار شود. (۲)۲3,* تابع همسایگی متتقارن گوسی شکل و 692 پارامترهای تعیین کننده ارتفاع و عرض تابع همسایکی می باشند. ‎Gly‏ ‏اطلاعات بیشتر درباره اتوماتاهای یادگیر می توان به [۱۳] [۱۱[]۱۲] مراجعه نمجد.

صفحه 30:
خب ۱7 200 - —1 Xmin~ Xmax x max Jf (x.n)dx =1 xmin

صفحه 31:
[ لگوییتمهلی یلحگییود ویونت. ‎dslao®‏ (۲) ساختار کلی شبکه ویونت ( بیان کرده و نشان می دهد که چگونه هر ویولت در فرایند تقریب مشارکت دارد. همچنان نشان می دهد که تابع مقیاس کننده فقط در مرحله اول تقریب برای ایجاد ۳۰ بکار می رود. بعد از ایجاد ۳۰ تقریب بهتر با اضافه كردن ويولت با همان دقت يعنى ‎-٠‏ 72انجام می گیرد و ۲-۱ ۱ تولید می کند. اضافه کردن ویولتهای با دقت بالاتر مثل ‎-١‏ - 1 باعث تقریب بهتر یعنی 7-۲ می شود. اين فرایند ادامه می یابد تا تابع اصلی ایجاد شود. اکنون به بررسی روشهای محاسبه ضرائب. شبکه یعنی >رط۳ه و عأر0۳0 می پردازيم . ۰

صفحه 32:
نیول حر اعتحلد گیادیلن نزول در امتداد گرادیان ۱۳: یادگیری در روش نزول در امتداد گرادیان شبیه یادگیری انتشار خطا به عقب در شبکه های عصبى می باشد .الگوریتم بر اساس معادله که نمایش غیر متعامد و پیوسته معادله (۳) می باشد عمل می کند که در آن ] مقدار میانگین تابع (۱/۳با توجه به نمونه ‎Slo‏ ورودی -خروجی و 1,51 ,۸ پارامترهای ویولت می باشند.

صفحه 33:
لين للكويبتم ا ريش ‎slstal ys geime‏ گیاهبان. ‎why‏ ‏ححلقل نموحن. یک تلبع هزین [ استفاحه می کند. F(x)= 3 “Nj 15 Si

صفحه 34:
امد ۱-7 #اگر آ تقریب. زده می شود. در مرامل بعدی هر تقریب جدید تقریب. قبلی را بهبود می بفشد. به عنوان مثال در یک تقریب. دلخواه 2تابع تقریب به صورت زیر خواهد بود.

صفحه 35:
عهود تلبع لصلی [ ]6 بر يوئ تولبع بلي خولهد بهد[ ]1 بنلبیلین, ی تون نهشت. . يرو روهظ - هو

صفحه 36:
نا سیی از اسف دیا سای انز ‎pre‏ ‏حستیس بلشی tat =< bane F)> + dax=<Yuns ‏ها‎ FOS) >

صفحه 37:
خب ۱7 یوش یاحگییو ۲ روش یادگیری ۲.]: در این روش با استفاده از خواص توابع ویولت. ضرائب به شکلی محاسبه می شوند تا مجموع مربعات خطای تقریب. هد اقل شود. فرض می کنیم که بردارهای ورودی و خروجی نمونه های گسسته از یک تابع پیوسته به صورت X=[x, X2 ...X al.

صفحه 38:
F = ‏لمانا‎ ous f(%)] ©و باشند. با توجه به اینکه بردارهای پایه مقیاس کننده و ویولت هم می باشند برای سادگی ‎uit‏ را با (0) نشان می دهیم و ضرائب و 1 را با جایگزین می کنیم . آنگاه درهر سطم از تقریب. مستئله تقریب را می توان با رابطه بیان كرد. كه در اين رابطه کتعداد توابع پایه می باشد. اولین تقریب یعنی ۴۰ با استفاده از تابع هقیاس کننده بدست می آید و تقریب جدید به کمک تقریب قبلی به شکل زیر محاسبه میشود.

صفحه 39:
خب ۱7 یه ۹+۲ که ۳ تقریب قبلی و ۴۳0-۱ تقریب جدید است.. پس می توانیم بکوییم میزان تغییرات در هر تقریب برابر می باشد كه مى توانيم آن را به فرم ماتريسى به صورت 0-1"(16 46( نشان دهیم و در آن

صفحه 40:
1

صفحه 41:
خب ۱7 #اکر ویولتها ۱ متعامد یکه انتفاب کنیم ۸۲۸ یک ماتریس واهد خواهد بود و رابطه فوق به شکل نهایی 2۸۲77 تبدیل خواهد شد. برای اطلاعات بشتر در باره روشهای فوق به [] مراجعه شود.

صفحه 42:
خب ۱7 )۰)

صفحه 43:
‎si‏ زد ضيائب لت لتعملتك: بادك ‏#در اين قسمت. ۲ الگوریتم مبتنی بر اتوماتاهای یادگیر برای تخمين ضرائب ويولت معرفى مى شود. اين الكوريتم ها به ‎SL‏ ‏استفاده از يك ساختار ثابح . از يك ساختار يويا بر خوردار است و بهمين دليل نيازى به دانستن تعداد ویولت. ها از قبل نميباشد. همچنین بر خلاف روش یادگیری ۲ كه محاسبات زياد و بدست آوردن معکوس یک ماتریس با ابعاد ‎sly UL‏ تعداد زیاد نمونه ها لازمه آن است از محاسبات کمتر و بسیار ساده تری برخوردار است

صفحه 44:
الگوریتمهای پیشنهادی همانطور که در قسمت شبیه سازی نشان داده شده است نتایج نزدیک به مداقل خطا را تولید میکند. اين الگوریتمها برای تقریب از یک مقدار اولیه برای ضریب شروع می کنند و سپس مقدار بهینه برای این ضریب را در اطراف مقدار اولیه جستجو می کنند. مقدار اولیه ضراتب را می توان با استفاده از ضرب داخلی مقادیر تابع و مقادیر ویولتهای پایه در نقاط خاص . و یا با استفاده از روش پیشنهاد شده در مرجع [۲] محاسبه کرد. اکنون به شرح الگوریتمهای پیشنهادی می پردازيم . ۰

صفحه 45:
[ping Sil #الگوریتم ۱: اولین الگوریتم . مبتنی بر اتوماتای یادگیر با سافتار متغیر از نوع 1.1۳ میباشد. در اين الگوریتم به هر ضریب یک اتوماتای یادگیر تخصیص داده میشود که وظیفه پیدا كردن مقدار بهینه برای ان ضریب را بعهده دارد. هر اتوماتا دارای آالاقدام متفاوت می باشد و امتمال انتفاب هر کدام از آنها در ابتدا مساوی و برابر (/۱ - 21 می باشد. هر اقدام مقادیر خود را در فاصله (ءحمصع1 رصنصع1) اختیار میکند. بر اساس اقدام انتخاب شده یک مقدار پایت در ضریب ویولت ضرب

صفحه 46:
285 #می شود. اگر مقدار اقدام انتغاب شده توسط اتوماتا در یک مرحله 6 باشد ضریب ویولت استفاده شده توسط الگوریتم برای مرهله ‎Kc sey‏ برابر ضریب در مرهله فعلی خواهد بود. در هر مرهله ازالگوریتم هر یک از اتوماتاها یکی از اقدامهای خجد را انتخاب میکنند و با توجه به مقدار انتفاب شده توسط اتوماتا مقدار ضریب ویولت مورد نظر برای مرهله بعد محاسبه میشود. با استفاده از ضرایب. تعین شده توسط اتوماتاها مقدار جدید تابع () ز ,81 زره ۶ = ‎F(x)‏ ‏1

صفحه 47:
خب ۱7 خطای تفریب به صورت محاسبه می گردد. اگر خطای بدست آمده از خطای مرحله قبل کمتر باشد اقدام انتخاب شده پاداش می گیرد و در غیر اینصورت جریمه می شود. بر اساس نتیجه اقدام هر اتوماتاء بردار احتمالات انتخابهای آن اتومانا تصهیم می شود.

صفحه 48:
#الگوریتم ۲: اين الگوریتم ۰ مبتنی بر اتوماتای یادگیر با ميباشد. در این الگوریتم نیز همانند الگوریتم ابرای هر ضریب ویولت یک اتوماتا تمخقادصییص م فاداودت ه امفیزاشیوش د یاولکای هش مقادبه یرضاقردیاب مهاویی وت هر داتونمظاترا گرفته ميشود. هر اتوماتا دارای علاقدام هر یک با عمق حافظه آامی باشد. بر اساس اقدام انتفاب شده یک مقدار معین به ضریب. ویولت افزوده میا کاسته می شود صورتی که این افزایش یا کاهش باعث بهبود خطا شود این عمل تکرار می شود و در غیر اینصورت بر اساس تعداد دفعات پاسخ ناموفق اقدام تغییر کرده و میزان افزودن ویا کاستن ضریب تغییر ميكند.

صفحه 49:
اححفعلت. تکیلر [ ۱] میا بیلبرٍ صفر قيار بحم #الگوریتم ۳: این الگوریتم . مبتنی بر اتوماتای یادگیر با اقدام پیوسته میباشد. در این الگوریتم به ازای هر ضریب یک اتوماتا با ساختار پیوسته در نظر گرفته میشود الگوریتم یادگیری به صورت زیر بیان می شود. ۲-مجموعه اقدامها را برای تپارامتر ویولت به صورت #انتفاب كن

صفحه 50:
۱ > ‏ود سس (۱)6., بیلی‎ oa ae aad LN ‏هر تكيلر‎ an a

صفحه 51:
©ه-مراحل زير را تكرار كن تا اينكه خطا به هد معینی برسد. ©:يك عدد تصادفى بين صفرو يك (21)2 را با استفاده از یک تولید كننده اعداد تصادفى انتحاب كن ‎N(ki EA) : ©‏ را به گجنه ای ‎GD!‏ کن تا شود :اقدام را بر وی سيستم اعمال كن

صفحه 52:
اخ سمه بتر يا محلسبه كن متلبع توزیع لحتمال, يابه هنگلم كن ki(n) “JE (sald = (a) xXimin Ck.

صفحه 53:
خب ۱7 ag flu ‏نتليج شبيه‎ در این قسمت عملکرد الگوریتمهای پیشنهادی برایچند مثال نمونه 6 مورد بررسی وبا الگوریتم های موجود مقایسه میگردد

صفحه 54:
خب ۱7 #مثال اول : در اين مثال يك سيستم ديك واكنشى بيوسته (0511) كه در آن یک واکنش شیمیایی گرمازای برگشت پذیر در دمای ثابت انجام میگیرد را مدل سازی می کنیم . «اکنش انجام گرفثه نسبت به غلظت مماد ورودی از درجه یک 0993 که توسط معادله زیر بیان میشود.

صفحه 55:
که در آن: ۷حجم حیگ..>! ضییب ولگنش. -)غلظت مولد ویوحو. ۴/۱۹ مقحلرٍ ثلبت. آ حصلی؛ ولکنش و ۲6 ‎٩۵‏ گیب ‎Rate=-k)CVe ۲‏

صفحه 56:
۵..حلصل شحه لست. - شبیه سازی برای الگوریتم ۱: اتوماتا دارای یکصد اقدام متفلوت در فاصله [۰۰۱۷۲۰ ] با طول گام ۰/۲ می باشد امتملل انتخاب هر کدام از این اقدامها در ابتدا مساوی و برابر ۰/۰۱می باشد. مقدار خطای متوسط پس از ۱۵ بار اجرا و به ازای مقادیر مختلف 98 17 در جدول (۱) و یک نمونه از تقبیب در شکل (۲) نشان داده شده است . با توجه به مقلدیر بدست آمده در جدول (۱) کمترین میانگین مربع خطا برای اتوماتای متفیر با مقلدیر ع ,۰۵ < 2 :۲ ‏#شکل‎ ‎-CSTR ¢,9)4 b( CSTR) ‏؟ (8)ورودی‎ ۰

صفحه 57:
جحولء! ‎٠‏ مقلحير متوسط خطا و ال گوریتم | به ازاي. مقاحیر مختلفد 0و ‎.b‏ ‏#جدول ۲ : مقادیر متوسط خطا برای الگوریتم ۲. ؟ شبیه سازی برای الگوریتم ۲: در این قسمت اقدامها را برابر مقادیر ثابت افزايش یا کاهش به ضريب در نظر گرفتیم . هر اتجماتا دارای هشت اقدام متفاوت است که این اقدامها عبارتند از : [۵,ه- ‎—0,01Po,00-0,] Po,‏ ۲ههبه۸,» ] ۰ میانگین مربع خطا و نتایه سازی شده به ازای مقادیر مختلف عمق در جدول (۲) نشان داده شده است . نتایج جدول (۲) نشان می دهد که الگورینم ۲ که در ان از انوماتای با ساختار ثابت استفاده

صفحه 58:
خب ۱7 * شده است نتایج بهتری ۱ تولید می نماید. این موضوع بدلیل اين است که این اتوماتای از تجربیات گذشته خود برای تصمیم كيرى های آینده استفاده می کند. کمترین خطا برای عمق ۲ بدست آمده است . افزایش عمق به بیش از ۲ تاثیر چندانی روی دقت نداشته است . نتایج شبیه سازی با روش یادگیری 1.۲ نیز در جدول (۲) امده است . 9

صفحه 59:
خب ۱7 #مثال دوم :در اين مثال یک تابع تفاضلی با ورودی سینوسی که در زیر امده است تقریب زده میشود.

صفحه 60:
ورودی از یکصد نقطه که به صورت یکنواخت در فاصله [۰۰۱۰۰ ] ایجاد شده تشکیل شده است . ورودی و خروجی اولیه در شکل (۵) نمایش داده شده است . شبیه سازی هم بوسیله اتوماتای یادگیر با ساختار متغیر و هم بوسیله اتوماتای یادگیر با ساختار ثابت با شرایط مثال قبل انجام شده است .میانگین مربع خطا ی متوسط يس از ۱۵ بار اجرا و به ازای مقادیر مختلف 2و ظ در جدول (۳) و میانگین مربع خطا به ازای مقادیر مختلف عمق در جدول (۴) و یک نمونه از تقریب در شکل (۷) نشان داده شده است .

صفحه 61:
۱7 :سنا را رن رز سر (5-1 اد +( دبا )25+ ‎(by fe,‏ u(k) = sin(2nk 28)

صفحه 62:
(a) 2 25 اههد 20

صفحه 63:
خب ۱7 ©شكل عله ‎(a) ©‏ + تقریب با دقت (ط) : تقریب با دقت (- (0): تقریب با دقت ۲- خط پیوسته تابع اصلی خط (--) تابع تقریب ‏#جدول ۳ : مقادیر متوسط خطا ی اتوماتای متفیربه ازای مقدار ‏#ثابت 2ومقادير مختلف 2 . ‏#جدول ۴ : مقادیر متوسط خطا برای الگوریتمهای ۲ولل.

صفحه 64:
۲ 2 4 8 8 © 8 5 3 4 8 8 © 3

صفحه 65:
35 27 7 ممعم

صفحه 66:
-۷۲ ‏تقریب با دقت ۰ (): تقریب با دقت (- (6) :تقریب با دقت‎ (a)? . ‏تقریب با دقت ۳- خط پیوسته تابع اصلی خط (--) تابع تقریب‎ )0( © مثال سوم : در این مثال تابع زیر با استفاده از سه الگوریتم ۴ ۳ و الگوریتم آموزش نزمل در امتداد گرادیان تقریب زده شده است . -10< x<-22.186x -12.864- © -2 > >0۳)(< 4.246x ® 0<x<10sin((0.03x+ 0.7)x) © © براى تقريب تابع از ۲۰۰ نمونه که به صورت یکنوافت در فاصله [۱۰,۰- آنمونه برداری شده استفاده شده است

صفحه 67:
۲۰۰ نمونه برای محاسبه تقریب و ۲۰۰ نمونه برای آزمون تقریب تابع به کار برده شده است . شده برای هر سه الگوریتم تابع ویولت به کار برده شده تابع گوسی (۱۲۱۲-(/< ۳260( می باشد. در اتوماتای پیوسته برای هر ضریب یک اتوماتا با تابع توزیع احتمال پیوسته به کار برده شده است . چگونگی عملکرد این اتوماتا به این ترتیب است که تابع توزیع اهتمال در همسایگی بهترین اقدام به سمت ماکزیمم خود میل می کند. همانگونه که در شکل (۷) نشان داده شده است

صفحه 68:
خب ۱7 #بهترین مقادیر بدست آمده برای دو ضریب اول به سمت 9-7۹۵ ۰۰۱ میل می کند که مقدار واقعی آنها ۰/۷۰۶۳- 9 ۰/۰۱۹۲-می باشد.به منظور مقایسه چهار پارامتر اول بدست. آمده با الگوریتمهای مختلف در جدول (۵) و یک نمونه از تفریب در شکل ‎(A)‏ ‏و مقادیر متوسط خطا ی تقریب. در جدول () نشان داده شده است . ۰

صفحه 69:
ES ##ااشكلء لاء تلبع. توزيم احتعال بر لسلس تعدلد حفعلته تكيلد

صفحه 70:
جحول ۵ , جهار پلياعتر لول بحست آمحه با الک وپیتمهلود مختلفد.

صفحه 71:
تعدا بارامترها ۳1 1 1۳

صفحه 72:
شکل ۵(۰۸): تقریب تابع با استفاده الگوریتم ۳ (ط): تقریب تابع توسط شبكه عصبى (0) :تقریب تابع با استفاده الگوریتم اخط پیوسته تابع اصلى خط (--) تابع تقریب . # شکل :(۵): تابع اصلی (): تقریب تابع توسط الکوریتم ۳ (6): تقریب تابع توسط الگوریتم ۰ * مثال جهارم : به عنوان آخرین مثال تقریب تابع ده متغیره ( 0.0( ‎=(P P)SIN‏ (۴۵ در فاصله -]- را با استفاده از الگوریتم ۳ نشان می دهیم . تابع ویولت استفاده شده کوسی دو

صفحه 73:
متغیره ((6۲- ۱۵۱۲-)100۳260۱۳ عع<(ز( انتغاب شده است جهت. شبیه سازی به ازای هر پارامتر تقریب یک آتوماتای پیوسته که که اقدام ان در فاصله فاصله [۵۰,۰] تغییر می کند در نظر گرفته شده است . نتایج شبیه سازی برای سه روش آموزش در امتداد نزول كراديان و الكوريتم آتوماتاى بيوسته در شكل (9) و خطاى بدست آمده در جدول (ل) نشان داده شده است . ميزان متوسط خطای بدست آمده پس از بیست بار تکرار برای آموزش در جهت نزول گرادیان برابر ۰۷۵ 9۰7 برای الگوریتمهای او ۳ پترتیب ۰,۱۶۷ و ۰۱۲۷ ۰7 می باشد. 9

صفحه 74:

صفحه 75:

صفحه 76:
حر این حقلله ۴ للگوریتم. عبتفی بر لتوعلقلی پادطیر #برای محاسبه ضرائب ویولت ارائه گردیده است.. این الگوریتمها خاصیت سلسله مراتبی ویولتها )| ‎aa‏ کرده و به صورت پویا عمل می کنند. نکته ای که باید مورد توجه قرار گیرد اين است که اتوماتای یادگیر مقادیر بهینه پارامترها ۱ بین دو مقدار مداقل و حد اكثر جستجو مى كند بنابر اين بايد از قبل اطلاعاتی در مورد مقادير حداقل و حداكثر يارامترها در دست باشد. در مورد مسائل كاربردى با توجه به اينكه محدوده عملياتى سيستم از قبل قابل پیش بینی مى

صفحه 77:
خب ۱7 ؟ باشد بدست آوردن مقادیر حداقل و هد اکثر پارامترها امکان پذیر است اما در مورد سایر مسائل می توان از روشهای دیگر مانند ضرب مسقیم یک مقدار اولیه برای هر پارامتر بدست آورد سپس مقدار بهینه را اطراف این مقدار اولیه جستجو کرد. نکته دیگری که در این الگوریتمها قابل توجه می باشد این است که در هر مرهله میتوان فقط یک ویولت اضافه نمود و آنهایی را که کمکی به بهیود تقریب نمی کنند حذف کرد. بنابر این با حففا دقت. تقریب میتوان تعداد

صفحه 78:
خب ۱7 #پارامترها یعنی ویولت ها را کاهش داد.] به عبارت دیگر الکوریتمهای پیشنهادی بطور اتوماتیک تعداد ویولتهای مورد نیاز (۱ تعیین میکند. نتایج به دست آمده را می توان به صورت زیر خلاصه نمود. ۰

صفحه 79:
خب ۱7 -روشهای پیشنهادی هم در تقریب تابع و هم در پیش بینی تابع در نقاط بین نقاط نمونه برداری شده بهتر از شبکه های عصبی با آموزش در امتداد نزول گرادیان عمل می کنند.۲- خطای بدست. آمده از اتوماتای پیوسته کمتر از دو اتوماتای دیگر است . ‎—P‏ ‏اتوماتای اتوماتای پیوسته سریعتر همگرا می شود. چگونگی کاهش خطای تقریب با توجه به دفعات تکرار برای الگوریتم ۳ در شکل (۱۰) نشان داده شده است. . همانگونه که مشاهده می شود در الگوریتم ۳۲ خطا يس

صفحه 80:
خب ۱7 از نوسانات اولیه سریغ کاهش یافته و به ‎crow‏ مقدار پایدار خود میل میکند اما در آموزش در امتداد نزول گرادیان خطا پس کاهش بدلیل ناهمواری سطح جستجو و تغییر گرادیان تابع ارزیابی ممکن است دوباره حالت نوسانی پیدا کند.

صفحه 81:
خب ۱7 Poggio, T. T. and Girosi, F. (1990). “Networks for -1° approximation and learning.” Proc. IEEE, Vol. 78, No. 9 Daubechies, I. (1990). “The wavelet transform, - »p® time-frequency localization and signal analysis.” IEEE Trans «Information Theory, Vol. 36° Mallat, S. G. (1989). “A theory or multiresolution - »® signal decomposition: the wavelet representation.” IEEE ۰

10,000 تومان