صفحه 1:
۹9
/
ee ان
\
۸
RC 1
02
يت
سحن
مصطفی اعظمی
1 5
ل سس
صفحه 2:
مقدمه
Poy A Oe nO eed ee © اصل "نهارآمجانی وجود ندارد"
۳ 0 برایمامی مسائل و درتمامی زمانهبهترین (
Sb ۳(
[ ايده:
* اگر تعدادی یادگیر پایه داشته باشیم میتوان با تر کیب نتایج آنها به دقت بالاتری رسید.
oon See 7 با هم متفاوث باشند:
00 ا ere pyc
ا ا اا ا الما 010
KOO
* نحوه نمایش: استفاده از تعداد متفاوت ویژگی برای هر یادگیر. استفاده از مجموعه داده
peyton
* مجموعه آموزشى: داده هاى آموزشى يادكيرها اندكى با هم تفاوت داشته باشند.
صفحه 3:
10 perk ا
۱ Ror Bate tcl Til
34h agzg/la aus
۱ en ke Las
" Serres ry]
ae Crom ABE ا
ee pen pert eer Cr
ف ریم: نحوه نمایش, پارامترهای
501010000 TS RICA
RO eed retort seer ie
در عملکرد سیستم وجود داشته باشد. در
| pees
7 Oey eer oy
EEC Saeed et ory
افزايش نمونه كيرى از اين توزيع به نتيجه
بهترى برسيم
صفحه 4:
Simple Majority Voting
‘Wiest examples:
صفحه 5:
, خصوصیت دستهآبندی کنندهتقای پایه
/ \
4مناستبی از ترکیب دیشته بندی کننده ها گ
الها بايد شترايط زير را ذاشته باشند:
* هر یک به تنهائی در حد قابل قبولی دقیق 00000
00
؟ هر کدام مکمل دیگری عمل کنند. به اين معنا که همگی نباید مشابه هم
بوده و نتیجه یکسانی تولید کنند.
صفحه 6:
۱
Cn ea aa
19 TCT ete Se eT een ot a a
۱ ee مره ٩
ی
/ 4 1
یک یادگیر شیف طویلا تخیر داده میشگید تایه دق بالثی برسد. ۰
ee ata
|
وه سس ٩
۱
8
صفحه 7:
Output
زمار
Input
xp) Combiner
صفحه 8:
Ensémble Averaging
ey
صفحه 9:
نتیجه گیری در مورد 91۳9 ۳56۲۱۵۱۵۷۸۲6۲3
ی
oO باياس سيستم حاصللا مشابه اس هر یک از خبره ها خواهد بود.
oe ee Tee) BB rei oe erent) OL i
See Ree ieee Nt Benn er Coe |
خواهد بود.
صفحه 10:
a ۳
۱
۱
۳ ( ۰ 4 دراین ال خروجی ۱۰شیکهباهم
Individual Experts Used ترکیب شده اند. میانگین
00 / 5616 توانسته به خطلى
مورد انتظارى كه كمتر از خطاى/
hee 060
برسد.
On wa! ا 0 0
7
Se oe Rene dd
© (/اختلاف
co
صفحه 11:
Bagging Vs)
1 اين روش نیز مبتنی بر رای گیْری است با اين تفاوت که یاد گیرهای پایه با داده
ep Cone sr Altay لو ده میشوند تا اندکی با هم تفاوت داشته باشند.
Cee ec eee SS STON N Eel See he
Page) tes Pete eC ev UNC eee 5
۰ مس وم ای مب تا eiodes
|
Cee eee
Se Rae ee KOR
راو راو )(
اس رنه ان نی سر جوا
مسر
aca ۱
1
صفحه 12:
breast cancer
glass
diabetes
Error rates on ۲
1 روش ۳:۸۱( برایالگوریتمهاییادگیر اپادار یعنیالگوریتمهثی که با تغیر دده
خرن عملکرد خونى شواهد يت در
صفحه 13:
6
صفحه 14:
ae
»+—Bagging
صفحه 15:
Boosting
اا ا متفاوت محسوسى
waa 500 ی را م
یکدیگر باشند. \
PCD TOTS NY ANIL EES. WO er
۱ Le ESC EO
3 منظور از یادگیر ضعیف این است که یاد گیر فقط کافی است که یک کمی از
حالت تصادفى بهتر عمل كند. (ج < و/ة)
000 ا ل ال FRC a AP
ميشود.
ا ا ا |
06
صفحه 16:
۱۱
|
| رب meer ewe ree
* له
1 Mer Sen enoM ES LT NESE eee od eT
erento Se eee ل ا ا
eid
PIE ا eS Pe ree a ene Soe te
ها توسط يك يادكير ضعيف ارزش كذارى شده و به آنها وزن داده ميشود.
6
صفحه 17:
a
-~< Boosting
“Onigmal
Training set 3
Training set 4
صفحه 18:
Boosting accuracy
Training
۳ ples
assification
differently
©
صفحه 19:
Boosting
06
صفحه 20:
AdaBoost (ADAptive #99
ل وض احتمال انتخاب,یک نمُونه * برای قرار گرفتن در مجموعه داده های
Pu cnen ete sie موی ean ie) ا [eC
میشود: ۱
0
Cat SC Seat at) 19
Reve ats ene ore tl ia ا ا Pen
eMC Ies 0[
| تمامی یادگیرها ضعیف و ساده بوده و باید خطائی کمتر از 22 داشته باشند در غیر
اینصورت آموزش متوقف میشود زیرا ادامه آن باعث خواهد شد COT poe
ا ل 0
er
صفحه 21:
Training
For all {2°
For all ba
Randomly draw 4
Train d, using
For each (zt,r‘), calculate yt — dj
Calculate error rate: «, — >, pf - (yf Ar*)
1/2, then لد >
For each
If ut
Normalize probabilitie:
ی یس
Testing
Given «, calculate d,(x),j =1
Calculate class outpu
vem Dy (low) ب
9
صفحه 22:
eo
Te ول ای
Learn)
صفحه 23:
ه06
صفحه 24:
۱ eit
۸ 0006 ۳۳
5
00 ne sre
9
صفحه 25:
es.
صفحه 26:
صفحه 27:
صفحه 28:
صفحه 29:
صفحه 30:
Methodology
Features Neural Network
Class | Cont Dise Hiddens _ Epochs
TO 0
690 : 10 35
000 4 0 10 5
9 5 3
10
10
heart-cleveland
hepatitis
house-votes-84
hy
ionosphere
krvs-kp
labe
letter 20000
prom 136 | 936
ribosome-bind | 1877
satellite
صفحه 31:
90
hepatitis
honse-votes-84
ionospher
iis
kr-vekp
Tabor
letter
promot
ribosome-bind
satellite
مهست
صفحه 32:
صفحه 33:
صفحه 34:
صفحه 35:
1
&
3
&
5
صفحه 36:
صفحه 37:
صفحه 38:
و
eee | 0070 وپایین آمدن کارائی
@ ن كاهش خِظًا با شبكه عصكّى با سايز ١8-١ ٠
© بيشترين كاهشخطا با درخت تصميّم با سايزه!
© مناسب بودن 200 0) روى اكثر مسائل
Ree ا AL |
30.
صفحه 39:
۲ پيشنهادات
4
| استفاده ازالگوریتم سس ۳
/ fy
ae TSE STE CTCL DN I Sep Seren ree |
PT اا ear para
لحك
صفحه 40: