صفحه 1:
طبقهبندهای مبتنیبر تئوری بیز
Classifiers based on Bayes Decision Theory
حسین منتظری کردی
دانشکده مهندسی برق و کامپیوتر
دانشكاه صنعتى نوشيروانى بابل
ياييز ٩۱
ل
صح
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 2:
رئوس مطالب
۱- تئوری تصمیم بیز
۲- توابع تمایز و سطوح تصمیم
۳- طبقهبندی بیزین برای توزیعهای نرمال
۴- تخمین توابع چگالی احتمال نامعلوم
۵- قاعده نزدیکترین همسایه
۶- شبکههای بیزین
.2
2 5
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 3:
۱- تئوری تصمیم بیز
۷ هدف طراحی طبقهبندی جهت قراردادن یک الگوی ناشناس در محتملترین کلاس
فرض 214 كلاس Wye Wy, i! ۰,(د) موجود بوده و یک بردار ویژگی ناشناس ۶ داریم.
¥ ۸ لحتمللشرطیبصویت/۸ ,..۰ ,2 ,1 |۳60۵ را تشکيلميهيم لینتولبع لحتطلل
شرطیرا لحتم تپ سیرنسیز مامند
هر احتمالپسین بیانگر میزان تعلق بردار # به كلاس ,له مىباشد
محتملترین کلاس میتواند برایر اندیس احتمال شرطی بیشینه باشد و به آن تعلق دارد
کار طراحی با تخمین تولبع چگللی احتمال (DAF) از روی بردارهای ویژگی مجموعه داده آموزش شروع
میشود.
۲ پرای سادگی. مسئله دو کلاسه را در نظر بگیرید (,۵) ۰ ,00) و احتمال پیشین اتفاق هر كلاس نيز معلوم
فرض میشود
حتی اگر اینگونه نبود. به آسانی قابل تخمینزدن میباشند (غیر دقیق)
9
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 4:
if N be the number of samples in training sets then p(o,) = a, P(@,) =
۲ تولبع چکالی احتمال شرطی کلاس, 2 ,1=1 P(xlo), بیانگر توزیع هر بردار ویژگی در كلاس
مربوطه. قابل تخمین توسط داده آموزش؛ این تابع بعنوان تابع همانندی (11166110000
2 نيز شناخته مىشود
طبق قاعده بيز
۳
Pools) = حمیر - (۸۵۵۳۵۸۵
oD x
۷ قاعده طبقهبندی بیز
If Ploy|x)> ,دحوم x is classified t0 رس
If Pla|x)<Ploz|x), x is classified وت ما
” با جایگزینی قاعده بیز در رابطه طبقهبندی, داریم
(یم)نجم |0۲ ج درس طذرس مما
۷ همانطور که میبینيم. به )۳ در رابطه نهایی احتیاجی نیست و !در احمال پیتین وعوع تلاسها را
برابر در نظر بگیریم داریم:
—
5 سید
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 5:
PCe\@1) 2 PCxr|@2)
طبق قاعده تصمیم بیزه بازای تمام مقادیر در ,11 بردار ویژگی متعلق به کلاس یک و در
غير اينصورت به كلاس دو تعلق دارد
ESL خطاهاء. تصمبمكدء.: غف قانا احتنات م اكش .>٠.. :| بوضوح ”
2 هار
۱ /
۳
FIGURE 2.1
Example of the two regions & and Xz formed by the Bayesian classifier for the case of two _
شناسایی آ equiprobable classes.
سنعتی نوشیروانی بابل جلسه دوم درس حسین منتظری کردی
Me
صفحه 6:
۲ باتوجه بشکل, خطای تصمیم برابر است با
۷ هدف در طراحی طبقهبند بیز: حدافل دردن حطای تصمیم تیری میباشد
حداقل کردن احتمال خطای طبقهبندی
* از لحاظ کمینه احتمال خطاء طبقهبند بیز بهینه میباشد
(يسرضاء عمط + (ره ی > ۳ - و1
۳ .) احتم(-ولم دو رویداد. طبققانونب یز
Pe = P(x € Rolo )P(@}) + Pe € Ry|o2)P(o2)
= Plo) | ie a + هت wlon)dx
rem | Peartspeo ax + poses
in
JR, Siena bs %
9
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 7:
Ru: Play |x) > Plwr|x)
Ry: Plo Pa |X)
از سویی دیگر. ,1 و یه کل فضای ویژگی را پوشش میدهند و داریم
۱
[renin dxt 1 Par |x9px) dx = Plo)
2 b
Pe= Poa) [ (Perla) ~Ploals p(s) as
5 0
۷ بدیهی است. تنها در صورتی حضا دمینه حواهد بود ده در احیه ,اد
در حالت ۸۸ کلاسه. بردار ویژگی ۶ مت ts adi) 2d)> Bore
حداقل کردن متوسط رو ” < Rail
احتمال خطای طبقهبندی همواره بهترین معیار نیست
9
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 8:
۲ بدلیل نسبتدادن اهمیت یکسان به تمام خطاهاء مثال خطر تشخیص اشتباه یک بیمار با تومور
بدخیم بعنوان خوشخیم (منجر به مرگ بیمار و بالععکس خیر)
” راه حل. اختصاص یک چریمه (پنالتی) بعنوان وزن برای هر خطاء فرض ,0 كلاس بيماران
سرطانی و ,0 افراد سالم. همچنین نواحی مربوطه بترتیب مگ و یک
۷ هدف کمینه کردن تابع خطرپذیری زیر
ید وه مه
#ااتققان معظفى بسورة ] A> خواهدبود
” در مسئله 14 كلاسه با نواحى تصميم 24
کلاس ,( در 1716 ,با قرار كيرد.
مقدار جریمه ,2 بنام قلفات به لین تصمیم اشتباه اختصاص مییلبد. ماتریس تلفات با با
درایههای (16,3) مبین مقدار جریمه تشکیلمیشود. و مقدار خطرپذیری یا تلف کلاس 16
0
Ae f mon) de
iy
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
J = 1, 2, ,4 فرض مىكنيم بردار * از
2
~—
—
SS
صفحه 9:
۳ در رابطه قبلی, احتمال قرارگیری بردار ویژگی ۶ از کلاس :1 در کلاس 1 محاسبه میشود
۲ هدف انتخاب یک یک ناحیه تصميم ,18 جهت كمينه كردن متوسط ,1 مىباشد
د
مر ۲
2
= x 1 (Sn ات ax
۱
رابطه بالا کمینه است اگر هریک از انتگرالها کمینه باشد
a 0
راک یهرز
3
Aug Plow Plog) Vf A كذ باه
L- By 1%
خواهدبود. در حالت دو کلاسه داریم
تمال طبقفبندی
Ay = Ani pela PCy) + Az POelw2)P@2)
Apple Por) + Axper) آنگاه 2 به ,00 اختصاص
درس )ترس سارت ل - جرا > day - AzzdprCoeo2PW2)
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه
©
—
SS
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی 3
صفحه 10:
۷ طبیعی است که ,را( <ررا2 باشد. قاعده تصمیم بنام نسبت همانندی برای دو کلاس
Pua) Aza = Azz ,2 13
Peron) Pea) A An
۲ بطور معمول, عناصر قطری ماتریس تلفات را صفر در نظر میگيرند. حال اگر بخواهیم
طبقهبندی اشتباه الگوهای کلاس ۲ در کلاس ۱ عواقب وخیم بهمراه داشته باشد. آنگاه
بایستی ور2< ری
xewlon) if را
ره ترس روم 2
PCx|w2) > pl ۳ 7 ۳ 9
۲ در رابطه بالاء احتمال وقوع کلاسها برابر فرض شدهاند.
مثال: برای یک مسئله دوکلاسه. با فرض احتمال گوسی برای بردار ویژگی با 02 - 72 و
انگین صفر و یک بترتیب برای هر کلاس» مقدار آستانه را برای کمینه احتمال خطا و
bs ee ana ساب وا
جره اتير 05 0
3د رمه د رمام إن م
pool)
ل
2 —
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسين ی کردی
صفحه 11:
الف) کمینه احتمال خطای طبقهیندی
یرجه
يسم
Paley) 2 ?2
شرع
> (,م6
1
ب) كمينه متوسط خط يتيروير ج *(1 - ونج) > گوند 2 (و|۲)2 > (ر) ۴ نود
نتيجه: آسانه در حلت (وله لزنلا( جلك الإمطبه تنعقی ۳ مراک( ols Sains Ay خطای کمتری
خواهیمداشت In2
۲- توابع تمایز و سطوح تاسمیع
۲ کمینه کردن تولبع هدف در تصمیمگیری معادل با قسمتبندی صفحه ویژگی به ۸۸ ناحیه بمنظور کار طبقهبندی ۸۶
کلاسه میباشد
1 2 3 1
وه ۵ )1 و6 ) exp - ود ) هت 3
ل
2 —
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 12:
۷ اگر نواحی با و 1 مجاور هم در فضای ویژگی باشند. آنگاه یک سطح تصمیم ایندو را از هم جدا
مینماید. این سطح جهت حداقل خطای احتمال بصورت زیر توصیف میشود
Pai\x) ~ Play|x) = 0
بجای کار با توابع چگالی احتمال. از توابع جایگزین استفاده میکنیم
oo. gi(%) = F(P(ailx))
در رابطه بالاء () یک تابع صعودی یکنواخت. و ,9() نیز تلبع تمایز «اصحصتصنمعزظ ۷
et function دارد
مسئله طبقهبندی بصورت تصمیمگیری زیر خلاضه میشود
classify x in ay if gx) > YO) WAT 93551. سطوح تصمیم ۷
Sy) = BA) — Ge) =0, f= 12..M, TFS
9
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 13:
۲ رهیافت طبقهبندی از طریق قاعدهاحتمالبیز با هدف کمینه کردن احتمال خطایطبقهبندی یا خطریذیری
۲ مشکل طبقهبندی با قاعده بیز تخمین تابع چگالی احتمال برای تمام مسائل
۲ برای حل مشکل, محاسبه سطح تصمیم با روشهای جایگزین (فصول ۳و ۴
۳ روشهای جایگزین منجر به سطوح زیربهینه در قیاس با طبقهبند بیزین
۳- طبقهبندی بیزین برای توزیعهای نرمال
۳-۱- تابع چگالی احتمال گوسی یا نرمال
۲ معمولترین تبع توزیع احتمال در عمل, توزیع گوسی یا نرمال میباشد
۷ قضیهحدمرکزی, اگر یک متفیر تصادفی پیشامدی از مجموعی متفیرهای تصادفیمستقل باشد آنگاه تابع
چگالی احتمال آن بسوی توزیع گوسی میل خواهدنمود
” تابع چگالی احتمال گوسی تک متغیره با ميانگین لإ و واريانس *0
)
شناسایی آماری الگو ترم پاییز سان بحصیبی ۰۱-۱۱ دسحده مهسسی برق و کامپیوتر دانشگاه
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
ite
صفحه 14:
میانکین و واریانس از روابط زیر محاسبه میشوند
1 ومو o =F wl f 6 - wy pooae
تتام
@
FIGURE 2.2
Graphs for the one-dimensional Gaussian pdf. (a) Mean value 4 = 0, ¢ = 1, (b) w= Land
o? = 0.2. The larger the variance the broader the graph is. The graphs are symmetric, and they
men cre centered at the respective mean value.
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه IF
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی و
و
صفحه 15:
۲ توزیع گوسی برای حالت چند متفیره در فضای 1 بعدی بصورت
ae = pl Se — »)
% در رابطه بالاء لا بردار ميانگین و 2 ماتریس کوواریانس 1 < 1
Y= Flex — px - pw")
۲ برای حالت دو متغیره یا فضای ویزدی دو بعدی
1 تدس onl] Elxil = mi, @ = 2
)2 - ۱0۲۵و - )|
ابطه بالاء 2ر0 كوواريانس بين دو متغير بوده و
يعنى اكر دو متغير مستقل باشند آنكاه 02 صفر خواهدبود
6
v
در را
" در حالت دو متغیره برای تعبیر هندسی توابع توزیع داریم
ite
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 16:
معاذله تک بیشی برحبیب قاتا ۵
0
ANI
ANN HK
AN
ANN ۳
@
oem 26
my (@) The graph of a two-dimensional Gaussian pdf and (b) the corresponding isevalue curves for
‘a case of a nondiagonal &. Playing with the values of the elements of Sone can achieve different us
اقا بو عد موري حو :يناده سحيب سوم موس
shapes and orientations.
صفحه 17:
۳-۲- طبقهبند بیزین برای کلاسهای با توزیع نرمال
برای یک طبقهبند بیزین بهینه, با توصیف توزیع داده هر کلاس بصورت توزیعهای نرمال
چند متفیره و استفاده از تابع تمایز لگاریتمی داریم
(بس)صا+ (سإعد)مصا ح ((رس) (سإعد)مرعصا - دايع
fo = pp 37x — pw) + In Pwo) + G - ضايع
۷ که 6 یک ثابت بصورت ارلاصا (1/2) - 27 «2(1//)- میباشد. با بسط تابع بالا داریم
- دهع
1 5 0 ل 1 = 1 =
TEP Na tb aT Slay — رس ار أسرح + MP Sy x + In Pwd) + e4
” رابطه بالاء یک رابطه تربیعی غیرخطی میباشد. در حللت دو کلاسه با ماتریس کوواریانس
قطری سطوح تصمیم و یک سطح و طبقهبند درجه دو میباشد
1 2
Zap HA (+ +
1 بعس 1
وحم + تسوج + (يد+ [م جد - جمارع
2 207
BCX) — BX) =0
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
©
—
—
صفحه 18:
مثاا: مسئله ده کلاسه با مقاد زد
000 12 دي 0.0 0.5
185 0060| 2 'إ035 00
My = 10.017, py = ۱۵20 3) 0 ]سید اد |
P(@1) = P(@2), py = [0, 0] and py = [4,0]" 2
1 مه 0 00
FIGURE 2.7
Examples of quadric decision curves. Playing with the covariance matrices of the Gaussian ل
_‘unctions, different decision curves result, that is, ellipsoids, parabolas, hyperbolas, pairs of lines. سر
شناسایی اماری الکو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه . ۳
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی و
صفحه 19:
FIGURE 2.8
‘An example of the pais of twa equiprobable classes In the two-dimensional space, The feature
vectors in both classes are normally distributed with different covariance matrices. In this case,
+ the decision curve is an ellipse and it is shown In Figure 2.7a. The coloring indicates the areas =
where the value of the respective pdf is larger.
Gar Or Or tr وم
صفحه 20:
ابرصفحههای تصمیم
اگر ماتریس کوواریانس کلاسها را یکسان فرض کنیم؛ <-؛ تابع تصمیم بصورت
Qe) - wl x te
be
gH سا
wy =X py wi = In Pwd) —
” تابع تصمیم بالاه یک تابع خطی میباشد. و بنابراین سطوح تصمیم ابرصفحه است
yu pile Ml کوواریانس قطری با عناصر مساوی
فرض ویژگیهای منفرد بردار ویژگی متقابلا ناهمبسته با واریانس برابر باشند
Ely — pig — ppl = 0785
” ذر اين حالت. 2- 021 که 1 ماتریس یکانی 1 بعدی است
r
Mix + جمارع - دارع ورم - Rye) = T(x = x9) = 0
hy م
"ار بت Peas)
1 3
ايند = 5 +p en (
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
©
—
—
صفحه 21:
نقطه لا میباشد. اگر احتمال وقوع کلاسها را برابر
#اتليع تصميم بالآء يك تلبع خطى مىباشده وتببابرلين سطوع تصميم أيرصفحه است: اين
ابرصفحه بر خط ل-بل[ در همه حالات عمود است. برای هر روى أبرصفحه
tw! (30 — x0) = (My - BY" CX — Xo) = 0 >= 0 = دارع
اگر واریلنس کلاسها کوچک باشد. آنگاه تفاوت کم در احتمال وقوع کلاسها تاثیر چندانی
در تصمیم گیری ندارد (تعبیر هندسی واریانس, دایره بشعاع 0 حول مرکز !4
۲ ولی اگر مقدار واریانس کلاسها بزرگ باشد. آنگاه جابجلیی ابرصفحه با اختلاف بین احتمال
کلاسها در تصمیمگیری تاثیرگذار میباشد
لا ماتریس کوواریانس غیرقطری
” مشابه قبل برای سطح تصمیم داریم
By) = wl Ge = x9) = 0
ل
1 —
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 22:
ود
© “1
FIGURE 2.11
Decision line (a) for compact and (b) for noncompact classes. When classes are compact around
their mean values, the location of the hyperplane is rather insensitive to the values of P(w,) and
(a2). This is not the case for noncompact classes, where a small movement of the hyperplane
@ tothe ight or to the left may be more critical.
—_ 5
—— 5
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 23:
از ۶ نام دارد
ay) i By
(رس+ رس n( ( سک
بير وي ها - تس بع wy
D tvlya = OTS Hy? Vy ala, 9 ”
” همانند ماتریس کوواریانس قطری, تمام مطللب صحیح بوده. باستثنای اينکه ابرصفحه تصمیم بر
بردار ,11-2 عمود نمیباشد و بر تبدیل خطی آن 01-11۳2 عمود است
طبقهبند حداقل فاصله
حالت کلاسهای هم احتمال با ماتريس كوواريانس يكسان را درنظر بگیرید. داریم
x py Sw wd
فابت صرفتطو شتماشت: باتوجف به ماتزیسن کووازباس نازيم RNY ذر وابظه
ال ماتریس کوواریانس قطری (2- 021)
” دراين حالت.
BOX) =
,0 منجر به فاصله اقلیدسی میگردد
Euctidean distance: de = \\x ~ اليس
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
ل
حح
=
صفحه 24:
بزدار ویژگی به کلاسی با کمترین فاصله افلیدسی تسبت داده میشود
#ها ماتریس کوواریانس غیرقطری
در این حالت. بيشینه ,9 منجر به نرم ۲۶ میگردد و معروف به فاصله ماهالانوبیسی
"ox = np)” ال thy = ((x— مس م۱
” در حللت اقليدسى. © ,1 دوایری بمرکز ميانگین کلاسها بوده و برای دومی. » ررل) بیضی شکل
بمرکز میانگین است. در حللت اقلیدسی خط تصمیم بر خط فاصل دو میانگین عمود بوده و در حالت دوم
این خط باتوجه به بیضیها چرخش دارد.
ملاحظات
” در عمل اغلب دادههابا توزیع گوسی فرض میشوند. لذا طبقهبندبیزین برحسب قطری یا غیرقطری بودن
ماتریس کوواریانس ماهیت خطی پا تربیعی دارد. در آمار به لین نوع از طبقهبندها بترتیب تحلیل تمایز
QDA:) eu» jlo Uele (LDA: Linear discriminant analysis) 4+
sx5f Quadratic discriminant analysis
9
5 سید
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 25:
” مشكل QDA 5 LDA تخمین پارامترهای زیاد میباشد. در فضای 1 بعدیویژگی
بترتیب 1 و 12/2 برای بردار میانگین و ماتریس کوواریانس متقارن
x 0
@ 0
FIGURE 2.13
Curves of (a) equal Euclidean distance and (b) equal Mahalanobis distance from the mean points
of each class. In the two-dimensional space, they are circles in the case of Euclidean distance
and ellipses in the case of Mahalanobis distance. Observe that in the latter case the decision
line is no longer orthogonal to the line segment joining the mean values. It turns according to
the shape of the ellipses,
Ae
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کا
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
تر دانشگاه
صفحه 26:
۲ 10۸و 010۸ در بسیلیواز کلربردها دارلیعملکرد خوبمی اشند. علتلین!مر بیشتر در سطوح
تصمیم خطیو تربیعینسهفته لستنا فرضگوسیبودنتوزیع داد
۴- تخمین توابع چگالی احتمال نامعلوم
# در بیشتر موارد. تولبع چگالی احتمال کلاسها ناشناخته بوده و مجبور به تخمینزدن آن از روی داده موجود
میباشیم
گاهی اوقات شکل توزیع (گوسی یا رایلی) معین و پارامترها (میانگین.واریلنس) نامعین؛ و در برخی موارد
توزیع نامعین و پارامترها (میانگین» واریانس) معین
۴-۱- تخمین پارامتر با روش حداکثر شباهت (همانندی)
۷ در یک مسئله ۸ کلاسه بردارهای ویژگی بصورت تولبع شباهت (:60| 2۶) 0 در شکل پارامتری په
بردارهای ناشناخته ,0 وابسته است
% هدف تخمین پارامترهای تلبع بصورت (:60::0| )6 از روی یک مجموعه بردار ویژگی معین (مجموعه
داده آموزش) برای هر کلاس
” فرض داده هر کلاس مستقل از کلاسهای دیگر میباشد (جهت تخمین پارامترها)
9
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 27:
۲ ...۸۵ ,:* نمونههای تصادفی از تلبع (9 ز 2) ار میباشند و تلبع چگالی احتمال توام
(0 :2) راز روى مجمواو».....م) - وا تشکیل ميدهيم
”" با فرض استقلال آمارى بين نموندهاء داريم
1
جع ] ]دی دی :۲
me
” تلبع بالا را تلبع شباهت 9 برحسب نامیده. و روش حداکثر شباهت 0۷1 مقدار 8
را برای بيشینه کردن این تابع تخمین میزند
argmax [] pce: 8) = مرو
11 7 7
شرط لازم برای بيشینه شدن تابع بالا: صفرشدن مشتق آن برحسب 9 میباشد
با تعریف تابع لكاريتمى بصورت
:مد [ ] )@1
at
ل
2 ده
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسين ی کردی
صفحه 28:
با جایگزینی تابع لا نتم, بحاه, تانم حگال » ذار نم
7۱0/0۵: 9. 1 2۳:0
6: 18
2 ۳
۲ خواص تخمین گر :111
- این تخمینگر بدون بایاس میباشد. یعنی میانگین تخمین با خودش برابر است
me
- تخمینگر سازگار میباشد. یعنی برای مقادیر بزرگ از ۸۷ واریانس تخمین به صفر میل
میکند
- تخمین گر 1/11 باند پایین کرامررائو (کوچکترین واریانس ممکن) را برآورده میکند
- برای مقادیر بزرگ ۸۷ این تخمین گر دارای توزیع نرمال میباشد
مثال: تخمین .1۷1 از یک داده ۷ نقطهای با میانگین معلوم و واریلئس نامشخص را بيابید.
این نقاط توسط یک تابع 061 گوسی یک بعدی تولید شدهاند.
Ge — wt | 5 ید
نسحت )مه سل ][ Toco =n = )100
ei Vivo? 20? 5-0
ل
2 —
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسين ی کردی
صفحه 29:
ie
sa Vee -w? = 0
غ26
i 2
- 2 320 #مر-
a
- انم - 164 رق
تخمین بالا دارای بایاس میباشد؛ :بر ۷, بسمت بینهایت "مین سد
2 ور 1 = Fez)
۶-۲- تخمین بیشینه احتمال پسین رس سر تونتهادمم ۵ (Maximum
v
ن تخمین 9 را بردار تصادفی فرض میکنیم و مقدارش را بشرط مشاهده نمونههای داده
تخمین میزنيم. با قانون بیز داریم
در
0۲
s POP = POPOL OX) - نج
——
7 صرح
شناسایی آماری الگو ترم jul سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر داندگاه کی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 30:
۲ تخمین ۷1۳ با بیشینه کردن احتمال ( 0|26) 0 تعریف میشود
0 «وا زارط ع 0- جتفيريك : مبيرة
” اختلاف تخمینهای ,1۷11 و 1۸۳ در وجود (9) 9 میباشد
۴-۳- استنتاج بیزین
” فرضمیشود ۸۷ بردار آموزشی 2 موجود باشد و اطلاعات پیشین درباره تابعچگالیاحتمال (0) ط نیز
مفروض باشد. هدف محاسبه تابعچگالیاحتمالشرطی (0] D(X و میدانیم
۳ - ۱
۳0۳۵ ۲0۳۵
POO زر ۲۱۵۵ 20
POX
مشکل رولبط بالاء عدم وج Tx ul " !۸6۲ تفاده از روشهای عددی نظیر
روش زنجيره ماركوف-مونت كارلو (80)01/100) جهت حل مُسئله
ل
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 31:
ملاحظات
۷ سهتخمینگر ۷1۸۳ ,۷1 و 101 بازای مقادیر بزرگ ۸ یکسان ody و در مقادیر کوجک متفاوت
7
” براى داددهاى با طول محدود: تخمينكرهاى :1/11 و poole MAP مىياشند
۴-۴- تخمین بیشینه آنتروپی
آنتروپی ريشه در تثوری اطلاعات شانون دارد. اندازهای برای سنجش تصادفیبودن اطلاعات (بردار
ویژگی) خروجی یک سامانه. برای یک متغیر تصادفی
"۲ فرض میشود تلبع (16) 0 نامعین بع سل >> فلوم (میانگتن: وارناسی) il aly
بيشینه آنترویی تابع 00 نامعلوم را برای بيشیته نمودن انتگرال بالا با قیود داده شده تخمین
زیت
مثال: متفیر تصادفی ۶ بین یلا گ 16 گ را غیرصفر و بقیه جاها صفر است. تخمین بیشینه
ل
2 —
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 32:
انتروپی را باتوجه به قید زیر بدست آورید.
۳
با استفاده از ضرایب لاگرانة
ده - رمرم | - - ولا
ath,
Boo
= -] ما a) + 1} ax
با صفر قراردادن معادله بالاء و استعاده از هید داده سده داریم
PO) = موه - 1(
fx)
bo
[ otherwise
۴ طبق ب آنتروپی. تابع 0 متفیر تصادفی > دارای توزیع یکنواخت است
9
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 33:
(Mixture models) .5 ji ه-؟- مدلهاى
7 یکیاز راههای مدلکردن یک تلبع (6) 0 استفاده از ترکیب خطی تولبع چگللی بصورت
زیر میباشد j ۳
Sipe ٩-۱ ۳ 1 - یر
ع 2 ia
۲ اولین گام. انتخاب مجموعهای از مولفههای چگالی پارامتری بشکل (26|[0) 0 و محاسبه
پارامترهای 0 و Dy J= 1, 2, 0 J برحسب مجموعه داده آموزش
The expectation maximization) 6b, s40f cindy pit yS/
algorithm
¥ اطلاعات اشتباه برچسب موجب میشود عا مسئله دارای مجموعهداده غیرکامل شود: زوش
4 برای این نوع داده بسیار مناسب میباشد
v
هدف Lowceio= [pyro dy ta s8gy ce! از >> تویر - دوعه 21۳5 1 رد
ris
7 0 _
bu: eso
5-7 وكام
—— 2
دانشکده مهندسی برق و کامپیوتر دانشگاه ی ٩۱-۹۲ شناسایی آماری الگو ترم پاییز سال تحصیلی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 34:
۷ از آنجاییکه رها در دسترس نمیباشند, الگوریتم ]33۷ امید ریاضی تلبع لگاریتم همانندی را
مشروط به نمونههای مشاهده (ها) در هر مرحله بیشینه میکند
۴ گام 8 در مرحله (تکرار) 1 + و موجود بودن ( 0)2؛ امید زير را حساب میکنیم
=r ۳ 0 000
3
* گام ۸8 تخمین 1 + ۶ از 9 را با بيشينه دردن رابطه زير حساب م ىكنيم
۳
1.220: 00> _
۵+ 0
برای اجراء از یک حدس اولیه (0)0 شروع کرده و تکرار مراحل تا ||ع||( 0)۶-(1+ 6)6
ادامه مییابد
کاربرد 171۷1 برای مسئله مدلسازی ترکیبی
۷ در مدلترکیبی, مجموعهداده کامل بصورت رل ,66 N :۰۰
عدد صحیح بین [۱, [] است؛ این اندیس نشان میدهد ترکیب از دام ,1 تولید شدهاست
6-۲ وجود داشته و نیز یک
ل
2 ده
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 35:
از احتمال شرطی و قانون بیز داریم:
Pp jes = Psa lies OP),
” با فرض استقلال متقابل نمونهها و تابع لگاریتمی شباهت
Ves OP) اس = )@1
بیایید .۰۰ ,2-1۵ باشد و بردر بارامتر نامعلوم بصورت 10,۳۳ 7 9
” اميد ریاضی روی داده مشاهدهنشده بشرط نمونههایآموزش و مقدار فعلی 600 تخمین زده
میشود
Estep: 906: 6)00( - 7 Inc pc اند
۳
یر( مزامه ما رز >
احير
م
OY Peles OO relia: OP) = 9
tft —
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 36:
۲ برای ترکیب کوسی با ماتریس کوواربانس قطری, 2 621 داریم
5 1 0
Boxe: )ی me )
(2707) 27
Y علاومبر احتمالپیشین. ۳ مقادیر بل و ,0 برحسب ل ,... ,2 ,1 [ّنامعلوم بوده و
0 یک بردار (1+ ) [بعدی میباشد. با ادغام معادلات داریم:
* مرحله ظ:
vo
د i بر سل
نام + ey? - ماو - مگ 0 =P sox: )0:00
7 م
" مرحله M
Wy Pi x
ديه نس الك يط دور ور
ey Pine: ODD
+ رم - اه کل ۱
DIF + )رم Deas PUI ai A) ( +26
1۳-۳60
1
port D=
0 مد ۸ 2
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 37:
” برای تکمیل مراحل الگوریتم EM نیاز به محاسبه احتمالات زیر داریم:
ODEO رسیم
eee ۳
hee: OD) = Bens
7
تن ١ 60 تزا 2 - (60 مر
مشكل روش بالا در تخمين يارا Fl باشد. یک راهکار پرای حل مشکلء
استفاده از تکنیک تخمین خطا است.
۴-۶- تخمین غیرپارامتری
یک تکنیک مبتنیبر تخمین هیستوگرامی از تابع چگالی احتمال
۳ مراحل تخمین 006 بصورت
- ابتدا محور فضای ویژگی را به 9 قسمت تقسیم میکنیم
- احتمال یک نمونه ۶ متعلق به یک قسمت برای هر بخش تخمینزده میشود
- اگر ۸۷ تعداد کل نمونهها باشد و بل تای آن در یک قسمت قرار گیرد
9
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 38:
آنگاه با نسبت فرکانسی» احتمال آن قسمت برایر |
|
- اكر ۸ بسمت بینهایت میل کند. آنگاه تخمین بالا به مقدار واقعی م میرسد. مقدار
۴ بصورت زیر تخمینزده می؟نود؛ نقطه میانی قسمت مربوطه است
©
FIGURE 2.18
Probabiliy density function approximation by the histogram method with (a) small and
(b) large-size intervals (bins).
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 39:
- برای مقادیر کوچک مقدار م در قسمت مربوطه ثلبت است؛ در عمل برای تخمین
مناسب بایستی ۸۷ باندازه کافی بزرگ. " بقدر کافی کوچک 9 My نيز بمقدار كافى زياد
(Parzen windows) 9} ,b cleo xy
7 درحالت چند بعدی. بجای قسمتهای جعبهای باندازه ۱ فضای 1 بعدیویژگی به
مکعبهای با طول ظ و حجم 1 تقسیم مینزد: پیت ۰:7 بردارهای ویژگی
باشند. تابع زیر را تعریف میکن --
2 > ار for 1
4) =
0 otherwise
” جاییکه !۱۰۰۰.۰ < #* مولفههای بردار ** هستند. بعبارتی» تمام مقادیری از ** که
در داخلمکعبی به طول ۱ و مرکزیت مبداء قرارگیرند.مقدار ۱ داده و مابقی صفر میشوند
در ایتخالت: براى تخمين احتمال 709 داريم:
(قجم ري ) ل - مر
ل
2 ده
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسين ی کردی
صفحه 40:
” رابطه قبلی, تابع 0 را با استفاده
بسط به توابع پله گسسته تخمین می
” تابع هموارساز ۵ به توابع کرنل, تولبع پتانسیل, و یا پنجرههایپارزن معروف هستند. یکیاز
این توابع کرنل میتواند تابع گوسی بصورت (,00) 1٩ باشد. در اینحالت داریم:
همست )وه دود
۷2
os
كه ۳
05
a1 HO و
© @
FIGURE 2.19
In the two-dimensional space (a) the function #(xj) is equal to one for every point, x7, inside
the square of unit side length, centered at the origin and equal to zero for every point outside it
(b) The function & (45) is equal to unity for every point x, inside the square with side length [4 LusLnd
equal to b, centered at x and zero for all the other points. a age
err OF سنعتی نوشیرو.ی وم ترس. سین
Me
صفحه 41:
” رابطهقبلی تلبع ۳0 را با میانگین لا تبعگوسی با مراکز متفاوت برحسب مجموعه آموزش تقریب
میزند
۲ کوچکتر کردن « یعنی شبیهتر شدن شکل تابع گوسی به یک تابع دلتا بمرکزیت میانگین
در لین روش, تعداد تولبع گوسی مرتبط با تعداد نقاط بوده و مقدار " نیز توسط کاربر تعیین میشود.
ولی در ۳۷1 تعداد تولبع گوسی بطور مستقل از تعداد نقاط آموزش با یک روش بهینهسازی ت
میگردد
روش پارزن یک تخمینگر بدون بایاس مستقل از اندزه داده. ۸۷ میباشد. برای ۸۷ ثلبت. «! کوچکتر
موجب بیشتر شدن واریانس تخمین میشود
اگر 9 ثابت باشد. آنگاه با افزلیش ۷ مقدار واریانس کاهش مییابد. چونکه نقاط فضای تخمین چگالتر
میشود. لذا برای کوچکتر با ۸۷ بزرگتر تخمین بهتر میباشد
ملاحظات
% در عمل با تعداد محدود داده. نا برای انتخاب مناسب بایستی یک مقایسه بین " و ۷ انجام گیرد.
یک روش انتخاب متوالی جهت کمینه کردن خطای طبقهبندی
9
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 42:
0 20x
9
Gaussian
me
ona
0.06
20
Peo
on 5
vo oof [|
۱
10 20# 0 10
@
pe
oa2
FIGURE 2.20
Roproximation (ull-black line) of a paf dotted-red line) via Parzen windows, using Gaussian
0.1 and 20,000 samples. Observe
kernels with (a) 6 = 0.1 and 1,000 training samples and (b)b
the influence of the number of samples on the smoathness ofthe resulting estimate,
اهر
ره
0.06
10
@
FIGURE 2.21
‘Approximation (ful-black line) of a pdf (dotted-red line) via Parzen windows,
‘Sand 1,000training samples and (b) = 08.and 20,000 samples. Obsarve
۸ ق و کامپیوتر دانشگاه
that, in this case, increasing the number of samples has litle influence on the smoothness as
‘eal ton thes أ اكاك لد دحك acccaricy dl tea Faailivg avira:
صفحه 43:
oz
0.08
99
FIGURE 2.22
Approximation of @ two-dimensional pdf, shown in (a), via Parzen windows, using two-
dimensional Gaussian kernels with (b) = 0.08 and N= 1000 samples, (c) 6 =0.05 and
N = 20000 samples and (d) b= 0.8 and V = 20000 samples. Large values of b lead to smooth
estimates, but the approximation accuracy is low (the estimate is highly biased), as one can
observe by comparing (a) with (d). For small values of & the estimate is more noisy in appear-
ance, but it becomes smoother as the number af samples increases, (b) and (c). The smaller
the rand the larger the, the better the approximation accuracy مسحت
شناسایی آماری الگو ترم پا 4
ز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه کم
سنعتی نوشیروانی بابل جلسه دوم درس, حسین منتظری کردی 5
صفحه 44:
با افزایش ابعاد بردار ویژگی. مسئله کم بودن ۸۷ بیشتر نمایان میشود و برخی از نواحی فضای ویژگی
دارای نقاط پراکنده میشوند. لذا؛ برای حل اين مشكل بهتر است از 8 متغیر استفاده شود (در نقاط
پراکنده از «بزرگ)
چگالی با نزدیکترین همسایه (101 نع اوعت2۵ ع
۷ در تخمین پارزن. حجم اطراف نقطه ثلبت برابر 2 درنظر گرفتهشد و لذا. تعداد ,رک از یک نقطه به
نقطه دیگر بطور تصادفی دارای تغییر زیاد میباشد
در تخمین 5 نزدیکترینهمسایه. نقش Gage Ky gh میشود. مقدار 16 ,رركا ثابت و فاصله حجم
اطراف ۲ هر لحظه تنظیم میشود
"۲ بنابراین, در سطوح کم چگال مقدار حجم بزرگ و در سطوح پر چگال مقدار حجم کوچک
تخمینگر در روش ۶ ندیکترین همسایه بصورت
v از نقطه نظر عملی با ورود یک برداد وی ورد فاصله آن تا تمامی بردارهای آموزش از همه
NV 0
کلاسها محاسبه میشود.
9
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 45:
* طبقهبندی 16۷ دو کلاسه
۷ فرض ,۳ شعاع ابرکره بمرکز شامل ۶ نقطه از ,60 و :1 شعاع ابرکره شامل ۶ نقطه از یله باشند (لزوما
نقاط 1 برای کلاسها بیابرنیستند)؛ اگر ,۷ و ,۷ بترتیب حجم کرهها باشند. با آزمودن نسبت شباهت
ey Peon) dat = Aza
~ P@D Aaa — Mit
assign x t0.0\(@2) if
Ny P@2) Ant — Azz
7 درم دار diz = An
”" حجم ابربیضی برای فاصله ماهالانوییس به اندازه ۶ برحسب حجم کره با شعاع واحد
۲ بکارگیری فاصله اقل
ی
ناه
ملاحظات
مها ,24/0/۵
"۲ هرچند کارآیی تخمینگرهای غیرب ۲0 ژگی کاهش
aati, oda
9
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 46:
مییابد. ولی بعنوان طبقهبند از عملکرد مطلوبی برخوردار هستند
مثال: دو کلاس هم احتمال با توزیع نقاط بصورت: مشکی (,(0)» و آبی (,0) را
بگیرید. هدف طبقهنندء, نقطه ستاه به مشخصه ۰۰۰۷۱ ۰:۶) با .هش . 51 م باشد
13
اوه =
06] 4
03 تمعد
0 8
94 ۰ 1 wm
FIGURE 2.24
The setup for the example 2.9. The point denoted by a “star” is classified to the class «, of the
red paints. The & = 5 nearest neghbers from this classe within a smaller area compared toT شناسایی
the five nearest neighbors coming from the other class. a age
en وت Se ae Oe سنعتی نوشورر ی
Me
صفحه 47:
- با استفاده از فاصله اقلیدسی, ۵ همسایه نزدیکتر در کلاسهای ,0 و ,00 تعیین شدند
- برای محاسبه حجم. شعاع متناظر با دورترین همسایه از مرکز ستاره محاسبه میشود؛ به
ترتیب مقادیر 02/2 و ۷2:برای کلاسهای ۱ و ۲
- تعداد نقاط کلاس یک
پرابر 59 < ,2۷ و کلاس دو نیز 01 رل با توجه به دایروی
بودن سطح تصمیم مقادیر سطوح دو کلاس بترتیب برابر
- با صرفنظر کردن از ضرلیب خطرپذیری, نقطه ستاره به کلاس دو اختصاص مییابد
۴-۷- طبقهبند ۱81۷6 بیز
Y برای تخمین 308 در یک فضای ویژگی بعدی به 7۷ نقطه آموزش نیز داریم. برای حل
مشکل, مى توانيم هر ویژگی در بردار ویژگی ۱*۰۰ ۳ ۱:7 مستقل فرض نماییم
با این فرض میتوان نوشت
Hesiod = [] ojo, 7 = 1,2...
2
1
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 48:
۲ مسئله اكنون به تخمين / تبعچگالیاحتمال تبدیل میشود و برای هر کلاس تعداد LX
۷ نقطه داده کفایت میکند. اين تخمین به 7۷2۲78 بیز معروف است
% طبقهبند 23۷6[ بیز نمونه ناماند.. ...»۱ -» زاجة قلخن اقظ بصورت ژیر
اختصاص میدهد
1
om = arg max [] p60), 6 1,2)...
۳11
مثال: بردارویژگی ۵.....7«,: - »را با مقادیر باینری ویژگی»۱ ۰۳ 0 درنظر بگیرید. همچنین»
احتمالهای شرطی کلاسها بترتیب "۳۲۳۲" و ۳ میباشند. برای یک ۶ با
مقدار معلوم طبق قاعده بیز و نسبت شباهت با حداقل خطای احتمال داریم
>on
با اعمال فرض استقلال آماری (جهت سادگی تخمین احتمال) خواهیم داشت
1
Posies) > ] ۱ = pat
Poston = [Jaa aa
مي ©
2 —
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسين ی کردی
صفحه 49:
با گرفتن لگارینم از نسبث شباهت (رسیدن به یک تلیع تملیز خطی) بانوجه به توابع احتمال
شرطی داریم ۱
يه یا سسه مس ده
بسادگی میتوان نوشت
وماج g(a) = wx
فى Pid =a
qi =po. ره كرو
Poon)
تسا ۳ a Dee Ta
07
تعداد تخمینهای لازم در اینحالت برابر 21 جهت محاسبه 0 و ]© مىباشد
"ویژگیهایبایتری در تشخیصپزشکی با اختصاص مقدار ۱ به حللت نرمال و ۰ به مورد غیر
نرمال کاربرد دارد ۰
—
سح
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 50:
۵- قاعده نزدیکترین همسایه
” در ابتدقاعده نزدیکترین همسایه برای یک بردار ویژگی و یک اندازه فاصله بشرح زیر بیان میشود
- برای ۷ بردار آموزش, 4 همسایه نزدیکتر باتوجه به برچسب کلاسها تعیین میشوند. مقدار ۸ برای
مسئله دو کلاسه فرد و برای ۸۸ کلاسه نبایستی مضرب صحیح از تعداد کلاس باشد.
- در بين اين 6 نمونه. تعداد بردارهای 7 متعلق به ,00 را تعیین م ىكنيم. بوضوح
- بردار « به کلاس ,00 با بيشترين 4 اختصاص مىيابد
% اندازههای فاصله نظیر اقلیدسی, ماهالانوبیس, قدرمطلق فاصله یا نرم یک ow gL)
” براى 1 > عل سادترین نوع الگوریتم بنام قاعده نزدیکترین همسایه (NN) بعبارتى ديكر يك
بزدار وزودی ناظتباتن به برچسسب کلاس نردیکترین جعسایه اختضامن: مییابی
برای تعداد داده آموزشی کافی, این روش ساده دارای عملکرد مناسب میباشد و برای میل ۸ به
مقدار بینهایت. میزان خطای طبقهبندی برای 7۷۷ به مقادیر زیر محدود میشود
9
5 سید
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 51:
1
” در رابطه بالا 2 خطاى بهينه بيز میباشد. برای حالت دو کلاسه و طبقهبند 16۷۷
2۳9 1
مومع ود وم .عل + وم دورط دود
Paw = Pa + | = وا حب + Paw = Pa =
۲ برای مقادیر مختلف ۶ و مقدار ۷ بزرگ, قاعده 16/۷/۷ به طبقهبند بیزین میل میکند
ملاحظات
M وجود پیچیدگی برای جستجوی نزدیکترین همسایهها در تکنیک ۷2۷ع میزان محاسبات متناسب
با 10
برای مجموعفداده با 2۷ کوچک. کارآیی روش 167۷7۷ کاهش مییابد. استفاده از روشهای ویرایش:
تعریف فاصله سازگار با داده, و شیوههای دیگر جهت افزایش کارآیی
برای 1 < 6 در قاعدهنزدیکترینهمسایه. بردارهایویژگیآموزش فضایویژگی 1 بعدی
رابه ۷ ناحیه ,4 معروف به سنگفرشهایورونی (۱561121101
زیر تقسیم میکنند
بصورت
الع اود نمه > ود عه 1 ل
5 سید
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 52:
45 شاملتمام نقاطیدر فضالست"
برحسفاصله 4 نزدیکتر ماش
۶- شبکههای ی
v
در ابتدا با قاعده زنجیرهای احتمال برای ویژگیهای *
Jeepers J Ses bis
ame f= 12.
تشروع میکنیم
]۱ AD) = POI APO III—2 2. PORb PGA)
میتوان رابطه بالا را بصورت زیر نوشت
0
لابرلى 9 ردریج
ra), AS = boa), Ag = lap.aci]. As = a).
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
1
هب6 ] [ (م - حدم
|
Haske 8D تام
و
ره ,داوم
PGs. x1) = peaked
pon)
Porky
ل
حح
=
صفحه 53:
بصورت گرافیکی, گرهها مبین هر ویژگی بوده و والدین هر ويزكى. راك اعضای بل میباشند که با
خطوط مستقیم به گره ویژگی ارتباط مییابند
روابط بالاء میتنیبز فرضیات استقلال ور نوشته شدهاند. يديهى ات مم میتوان گرافهای دیگری نیز
برای تخمین توابع چگالی احتمال بالا رسم نمود.
” طبقهبند 21۷6 بیز حالت خاصی از شبکه بيزين با (© > بل مىباشد
۲ شبکه بیزین یک گراف مستقیم مارپیج (10/۵63) با وس مرتبط با هر ویژگی است
9
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 54:
x
5 6 3
Figure 3.6 Graphical representations of the multivariate density p(xy.....46) = plvglxs.x5)
راو اوه تحت رای مامتا
v
تعیین کامل شبکه بیزین به دانستهای زیر نیاز دارد
- احتمال گرههای ريشه (گرههایی که والدین نداشته باشند)
- احتمالهای شرطی گرههای غیر ربشه
- محاسبه احتمالهای توام با ضرب تمام احتمالهایشرطی در احتمالهایپیشین گرههای
ریش
9
5 ——
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی
صفحه 55:
در ابتدا قاعده نزدیکترین همسایه برای یک بردار ویژگی ۶ و یک اندازه فاصله بشرح زیر
بیان میشود
۵- قاعده نزدیکترین همسایه
7 در ابتدا قاعده نودیکترین همسایه برای یک بردار ویژگی ۶ و یک اندازه فاصله بشرح زیر
بیان میشود
- برای ۸۷ بردار آموزش. ۶ همسایه نزدیکتر باتوجه به برچسب کلاسها تعیین میشوند.
مقدار براى مسئله دو كلاسه فرد و براى 24 كلاسه نبايستى مضرب صحيح از تعداد
کلاس باشد.
- در بين اين © نمونه. تعداد بردارهاى بك متعلق به ,00 را تعيين میکنیم. بوضو<ه - ,۸
- بردار * به كلاس ,00 با بيشترين ,ك4 اختصاص مىيابد
ل
2 5
شناسایی آماری الگو ترم پاییز سال تحصیلی ٩۱-۹۲ دانشکده مهندسی برق و کامپیوتر دانشگاه ی
سنعتی نوشیروانی بابل جلسه دوم درس. حسین منتظری کردی