51 صفحه
5258 بازدید
10 اسفند 1396

برچسب‌ها

صفحه 1:
آشنایی با درخت های تصمیم گیری ارائه دهنده: احمد نيك آبادي 8313177 لستاد: دکتر شيري بهار 84

صفحه 2:
فهرست مطالب مقدمه طراحي درخت تصمیم گيري * پرسش هاي مطرح براي درخت تصمیم گيري (۵)) * الگوریتم يادگيري درخت 04.5 ,13 يادگيري افزايشي درخت هاي تصمیم گيري کار درت هاي تصمدم كيرى

صفحه 3:

صفحه 4:
مقدمه * بردار ويژگي: دوتليي (۷ ,5 بیانگر بردار ويژگي (لگو) 6_ است و ۷ برچسب کلاس مربوطه است. اجزاء همان ويژگي‌هاي مورد نظر هستند. الگوي مرقب: اگر ويژگي‌هاي 26 داراي مقاديري از يك مجموعه مرتب باشند. > را يك الگوي مرتب ‎\orderd)‏ عدمي‌رلهم تعفنم مي‌ناميم * _ الگوي حتمي: اگر ويژگي‌هاي بردار مقاديري اختیار کنند که داراي ترتیب طبيعي نباشند, آن را يك ‎(Categorical) ..> <4‏ مي‌نامند. ‎ *‏ ويژگي‌هاي عددي (مرتب) ممکن است داراي مقادیر گسسته یا پیوسته باشند. ‎ ‏روش هاي دسته بندي: ‎

صفحه 5:
معرفي درخت تصمیم گيري و برخي تعاریف مورد نیاز :نمابي از يك درخت تصمیم گيري <= depth o 00 يت ا ‎bh 0 NS (Clan bet)‏ 0 ‎subst used at aod +‏ موه زور ‎Dy deessson mle med st ade +‏ ‎

صفحه 6:
معرفي درخت تصمیم گيري و برخي تعاریف مورد نیا میانگین تعدلد لایه‌ها از ريشه تا گره‌هاي پاياني را عمق متوسط مي‌نامیم. میانگین تعداد گره‌هاي مياني در هر سطح درخت عرض متوسط درخت نامیده مي‌شود. اگر دو كره داخلي حداقل داراي يك کلاس مشترك باشند در این حللت گفته مي‌شود که کلاس‌ها دارلي روي هم افتادگي (0۷6712)) هستند. مر

صفحه 7:
معرفي درخت تصمیم گيري و برخي تعاریف مورد نیا نحوة انتساب کلاس به يك بردار ورودي در درخت تصمیم گيري: بردار ورودي در گره ريشه قرار مي كيريد. بردر ورودي در هر كرهي كه قرار مي كيرد با توجه به ارزيابي انجام شده در يكي از شاخه ها ‎Gale‏ مي رود تا در يك برك قرار بكيرد. برجسب بركي كه كره در آن قرار مي كيرد به عنوان برجسب بردار بركردانده مي شود.

صفحه 8:
معرفي درخت تصمیم گيري و برخي تعاریف مورد نیا مزایا: 1 aud’ قوانین تولید شده و به کار گرفته شده قابل استخراج و قابل فهم. کار با داده هاي پیوسته و گسسته. استفاده از نواحي تصمیم گيري ساده. حذف مقایسه هاي غيرضروري: لستفاده از ويژگي هاي متفاوت براي نمونه هاي مختلف. اس ‎ee Pe‏

صفحه 9:
در مواردی که هدف تحمیی تالعی پا مقادیر پیوسته است مناسب یستند. در موارد با تعداد کلاس ریاد و نمونه آموزشی کم احتمال خطا بالاست. هزینه محاسباتي بالاي تولید درخت تصمیم گيري. هرس كردن درخت نیز هزینه بالايي دارد در مسائلي كه كلاس هاي ورودي با نواحي مكعبي به خوبي جدا نشوند خوب عمل نمي کنند. زياد شدن گره پاياني در صورت روي هم افتادگي گره ها انباشته شدن خطاي لایه ها بر روي یکدیگر. طراحي درخت تصمیم گيري بهینه مشکل است.

صفحه 10:
طراحي درخت تصمیم گيري

صفحه 11:
اهداف اصلي درخت‌هاي تصمیم گيري دسته‌بندي کننده: 1.. داده‌هاي ورودي را تا حد ممکن درست دسته‌بندي کنند. 2 دانش آموخته شده از داده‌هاي آموزشي را به گوه‌اي عمومیت ببخشند که داده‌هاي دیده نشده را با بالاترین دقت ممکن دسته‌يندي کنند. 3 در صورت اضافه شدن داده‌هاي آموزشي جدید بتوان به راحتي درخت تصمیم‌گيري را گسترش داد(داراي خاصیت افزايشي باشند). 4 ساختار درخت حاصل به ساده‌ترین شکل ممکن باشد. "

صفحه 12:
گام‌هاي لازم براي طراحي يك درخت تصمیم‌گيري: 1 انتخاب مناسبي براي ساختار درخت. 2 . انتخاب ويژگي‌هايي مورد نظر براي تصمیم‌گيري در هر يك از گره‌هاي مياني. 3 انتخاب قانون تصمیم گيري یا استراتژي مورد استفاده در هر يك از گره‌هاي مياني.

صفحه 13:
روش‌هاي هيوريستيك ساخت درخت تصمیم گيري: 1 روش‌هاي پایین به بالا روشهاي بالا به بايين روش تركيبي روش‌هاي رشد دهنده-هرس کننده Robb

صفحه 14:
روش‌هاي ‎1b‏ ‏* درخت تصمیم گيري از ‎Gal‏ به بالا با حخرکت از برگ ها به سمت ريشه ساخته مي شود. * در هر مرحه دو یا چند کلاس بر اساس معياري با یکدیگر ترکیب مي شوند. * فرآیند ترکیب کلاس ها تا زماني که تنها يك کلاس باقي بماند ادلمه مي یابد.

صفحه 15:
روش‌هاي بالا به پاب * در روشهاي بالا به ‎Gul‏ براي طراحي درخت تصمیم گيري سه کار زیر انجام مي گیرد: 1 انتخاب يك قانون براي تقسيم گره‌ها 2 تصميمكيري در مورد ابا 3 انتساب برجسب كلاس به ككردهاي بايا * اكثر كارهاي انجام شده در زمينه درخت هاي تصميم كيري روش هاي بالا به پایین هستند. نمونه الگوریتم هاي بالا به پا ۲ 04.5 :1۳51 ,114 ,113

صفحه 16:
روش هاي رشد دهنده-هرس کننده: ** در این روش ابتدا درخت تصمیم گيري با استفاده از روشي همچون يك روش بالا به بايين ساخته مي شود. *** در مرحله بعد با استفاده از يك الگوریتم هرس شاخه هاي اضافي درخت حذف مي شوند. * الگوریتم 1 از جمله این الگوریتم هاست. الگوریتم 004.5 نيز داراي يك الكوريتم هرس مي باشد. 0

صفحه 17:
** در اين روش ها از هر دو روش بالا به بايين و يايين به بالا استفاده مي شود.

صفحه 18:
پرسش هام مطرح براي درخت

صفحه 19:
پرسش هاي مطرح برای درخت تضمیم گیری 0۵10 25 الگوریتم ساخت درخت ۸1۲): ‎Classification And Regression Trees (CART) *‏ ‎Bereiman(1983) *‏ 2 ارائه نرم افزاري با همین نام که این الگوریتم را پیاده سازي مي کند توسط ‎Salford‏ ‎Systems‏ 5 * الکوریتم هاي ديگري مشابه الکوریتم 2/۸18۲ پیاده سازي شده و نشان داده شده که از 2۵ بهتر عمل مي کنند.

صفحه 20:
پرسش هاي مطرح براي درخت تصمیم گیری ‎CART‏ * برلي ساخت درخت تصمیم گيري با استفاده از الگوریتم ۵1*7 و بسياري از الگوریتم هاي ديكر ساخت درخت بايد به يرسش هاي زير ياسخ داد. ويژگي‌ها به مقادیر دوتايي محدود مي‌شوند يا مي توانند جند مقدار داشته باشند؟ تعداد مقادير ويژگي‌ها تعداد خروجي‌هاي هر گره را مشخص مي‌کند. در هر كره جه ويذكي بايد ارزيابي شود؟ چه موقع يك گره را به عنوان كره باياني اعلام كنيم؟ اگر درخت تصمیم گيري خيلي بزرگ شد چگونه مي توان آن را كوجكتر (سادهتر) كرد؟ پاسخ این پرسش الگوریتم هرس را مشخص مي‌کند. اگر يك برگ درخت داراي ناخالصي بود چه برچسب کلاسي به آن نسبت داده مي‌شود؟ با نمنه‌هيي که مقدار برخي ويژگي‌هاي آنان معلوم نیست چگونه برخورد شود؟

صفحه 21:
پرسش هاي مطرح براي درخت تصمیم گيري ‎SE CART‏ *_ تعداد انشعاب * انتساب برچسب کلاس به برگ‌ها *_نمونه‌هايي که مقادیر برخي ويژگي‌هاي آنان مشخص نیست

صفحه 22:
پرسش هاي مطرح براي درخت تصمیم گیری ‎CART‏ انتخاب ارزيابي و ناخالصي گره: * معيارهاي اندازه گيري ناخالصي باید داي ويژگي هاي زیر باشند ** در صورتي كه كليه دادههاي يك كره به يك كلاس تعلق دلشته باشتد باید مقدار آن صفر شود ** در صورتي که داده‌ها به صورت مساوي بین تمام كلاس‌هاي موجود تقسیم شده باشند بايد بيشترين مقدار خود را داشته باشد * برخي روش هاي اندازه كيري ناخالصي: © باخالصي انتروبي ‎HD Ploy) low, Pies)‏ AV, =) PG), 1-2 ‏رال‎ Gini ‏تب‎ * * تاخالصی دسته‌بندی اشتاه لمي ی ‎i(N) =1—max Pw)‏ 7

صفحه 23:
پرسش هاي مطرح براي درخت تصمیم گيري ‎CART‏ iP) تموجار تقادیر معیارهای مختف نا رهاي مختلف ناخالصي براي حالت دو کلاسه

صفحه 24:
پرسش هاي مطرح براي درخت تصمیم گیری ‎CART‏ * در هر گره از چه ارزيابي براي تقسیم داده‌ها استفاده کنیم؟ با داشتن رلبطداي كه با استفاد از ن بتوان ناخالصي داده‌ها را انداز‌گيري کرد به دنبال ارزيابي مي‌گرديم که ناخالصي داده‌ها را تا حد ممکن کاهش دهد. * براي اندازه گيري میزان کاهش ناخالصی در موراد دو کلاسه از رابطه Ai(N) = i(N) — Pri(Nz) — (1— Pr)i(Nr) استفاده مي‌کنيم. *_در لین رابطه لا و لاابه ترتیب بیانگر گره‌هاي چپ و راست ایجاد شده در نتیجه ارزيلبي در گره فعلي و ,3 احتمال قرار گرفتن نمونه در گره چپ است.

صفحه 25:
پرسش هاي مطرح براي درخت تصمیم گیری ‎CART‏ چه موقع تقسیم گره‌ها را خاتمه دهیم؟ * برازش بيش ‎coverfitting) s> j)‏ * برخي روش هاي مورد استفاده براي پایان دادن به تقسیم ها * وارسي اعتبار : هر زمان که خطاي دسته‌بندي براي داده‌هايارزيابي از يك حد از پیش تعیین شده کمتر شد آموزش (تقسیم گره‌ها) را خاتمه مي‌دهيم. * حد آستانه برا ات ناخالصي: اگر بهترین انتخابي که براي ارزيابي وجود دارد. ناخالصي را از ب انه کمتر کاهش دهد تقسیم در آن گره را خاتمه مي‌دهيم.

صفحه 26:
پرسش هاي مطرح براي درخت تصمیم گیری ‎CART‏ هرس كردن درخت تصمیمگيري: * پدیده :61666 20۲12018 : گاهي اوقات متوقف شدن تقسیم نمونه‌ها در يك گره و اعلام گره به عنوان برگ به دلیل فقدان پيش‌بيني در مورد میزان مطلوبیت تقسيم‌هاي گره‌هاي بعدي است. رویه ديگري که در مقابل روش متوقف ساختن تقسیم به کار گرفته مي‌شود. هرس کردن درخت است: ‎tes‏ 002255595 5055 5 0 إ مقادير ناخالصي در برگ‌ها برسیم. سپس به بررسي دو برگ مجاور (داراي پدر یکسان) می‌پردزيم كه آيا مي توان اين دو برك را با يكديكر تركيب كرد يا خير. ‎ ‎n

صفحه 27:
پرسش هاي مطرح براي درخت تصمیم گیری ‎CART‏ الگوریتم هرس ۸1۸۲): فرض كنيد مقدار762 را از رابطه ‎AO =10 KO‏ بدست مي‌آوريم. که در آن 260 نرخ دسته‌بندي اشتباه در گره ! است که با استفاده از رابطه ۱۵ 9۲ -1< 7)۵ ای موز فرض كنيدة2 زيردرختي با ريشه !باشد و8 از رابطه 1 »22 ۵), محاسبه شود. که در آن *ثايتي است که پيچيدگي درخت تصمیم گيري رابه ازاء هر گره پايلني بیان مي‌کند و17 مجموعه گره‌هاي پايلني زیر درخت است.۹۹** تخميني از نوخ دسته‌بندي اشتباه و بيچيدگي درخت ارائه مي‌کند.

صفحه 28:
اگر 1660 >(7) ؟آنگاه پيچيدگي هزینه زیر درخت کمتر از گره ! خواهد بود. لین امر براي مقادیر كم رخ مي‌دهد. با افزلیش ‏ این رابطه تا زماني درست خواهد بود که _RO- RT) 2۷,)۵-1 ‏که در آز(۷)4/ تعداد گره‌هاي پایانی زیردرخت :1 است. در نهایت مقدلل9 را به شکل زير محاسبه‎ ‏سور‎ ‎2-1 براي هرس کردن درخت در هر مرحله مقدار ()[ را براي تمام گره‌هاي غیر برگ محاسبه مي‌کنيم. تا زماني که حداقل این مقدار براي گره‌ها از مقدار آستان‌اي کمتر است. گره مياني با کمترین مقدار ()[ را به عنوان برگ اعلام مي‌کنيم و مقدار (5) تمام كردهاي يدر آنن تا ريشه رل مجددا محاسبه مي‌کنيم.

صفحه 29:
پرسش هاي مطر برای درخت میم گیری ۵۲۹1 22 الكوربتم يادكيري درخت .1103 ‎chs‏

صفحه 30:
لگوریتم يادكيري درخت 04.5 ,1۳3 2 الگوریتم ‎IDB‏ ‎Quinlan - 1936 *‏ * بلا بهپایین * پایه بسياري از الگوریتم هاي يادگيري درخت ** جستجوي حریصانه اي را براي درخت تصمیم گيري بهینه انجام مي دهد. الگوریتم 64.5: ‎Quinlan - 1993 *‏ ** حاصل اعمال برخي بهبودها در الگوریتم 1103 (کار با داده هاي پیوسته. کار با وبژگي هاي بدون مقدار و ..) الگوریتم 5):

صفحه 31:
الگوریتم يادگيري درخت 4.5 .1103 الگوریتم 13: کار کردن با مثال‌هاي آموزشي داراي صفات بدون مقدار * کار با صفات داراي مقادیر پیوسته * کدام صفت بهترین دسته‌بندي کننده است؟ * مشكل معيار اندزهگيري بهره اطلاعاني * مقیاس دیگر بیلي انتخاب صفات «Quinlan 1986, C4.5) ‏نسبت بهره‎ * اک SplitInfaratiots, A) = ‏اک‎ Toa tel Gait'S A GainRatios, A) ‏سبد ييه‎ ۳

صفحه 32:
الگوریتم يادگيري درخت 4.5 .1103 کار با صفات داراي هزينه‌هاي متفاوت: ** گاهي اوقات ویژگی هاي مختلف داراي هزینه محاسبه متفاوتي هستند. ** مي‌توان با اضافه کردن عبارت هزینه در مقیاس انتخاب صفات 193 را به گونه‌اي تغییر داد که هزینه ضفات را نیز در نظر بگیرد. * پيشنهادي ارائه شده (جریمه کردن ويژگي با هزینه آن): ‎-Tan (1993) , Schlimmer (1990) , Tan *‏ ‎Gaiti(S, A)‏ ‎CostA)‏ ‎Nunez (1988) *‏ ‎gait) _‏ (CostA) +1)” ۳

صفحه 33:
الكوريتم يادكيري درخت 04.5 .123 * ایجاد پنجره در 113 ** _روشي براي برخورد با داده‌هاي آموزشي بسیار زیاد **_بدون استفاده از تکنيك ایجاد پنجره الگوريتم‌هاي فوق بسیار کند عمل خواهند کرد ** نمونه‌اي از يك الگوریتم يادگيري به شکل زیر است: زیرمجموع‌اي از تمونه‌هاي آموزشي را به تصادف انتخاب كنيد. الگوریتم 1103 را بر روي نموه‌هاي آموزشي انتخاب شده اجرا و درخت تصمیم‌گيري حاعل را پدست آورید. ‎als >‏ آموزشي را که اشتباه دسته‌بندي شدهاند در مجموعه‌اي همانند 3 قرار دهید. ‎ ‎ ‎ ‏وندهاي آموزشي رابا استفاده از درخت به دست آمده دسته‌بندي کنید. نمونه‌هاي ‎ ‎ ‏در صورتي كه 12 نهي بود الكوريتم خاتمه مييابد. ازير مجموعه نمونههاي آموزشي (5) را برابر با اجتماع 5 و 5 قرار بده. به كام 2 برو و الكوريتم 1193 را براي زيرمجموعه نموندهاي آموزشي جديد اجرا كن. ‎rr

صفحه 34:
يادگيري افزايشي درخت هاي

صفحه 35:
يادگيري افزایث يشي درخت هاي تصميم گيري بادگیری درخت تصمیم گيري © غیر افزايشي:الگوریتم درخت تصمیم گيري موردنظر را در ید ار آموزش با داههاي آموزشي یادميگیرد. * افزايشي: با دریافت هر نمونه آموزشی جدید در صورتی که لازم باشد. الگوریتم. درخت یادگرفته شده را بازبيني مي كند و ممكن است آنجه رأ كه ياد كرفته اسث بهبود بخشد. * ويژگي هاي الكوريتم افزايشي خوب: حافظه مورد نياز كم. © سرع بازسازي بلاي درخت. ** تولید درختي مناسب نسبت به روش هاي غيرافزايشي. ‎ *‏ الگوریتم هاي 0۸87 و 1123 كه نا اينجا ديديم همكي الكوريتم هاي غير افزايشي بودند. ‎٠.‏ 0 الگوریتم هاي افزايشي ساخت درخت: ‎"103 * ‎104 * ‎IDSR * ‎ ‎re

صفحه 36:
يادگيري افزایث يشي درخت هاي تصميم گيري الگوریتم ‎PTD‏ ‏ساده رین ساخت درخت تصمیم گيري به صورت فزايشي است. “* کلیه نمونه هاي آموزشي را نگهداري مي کند و با دریافت هر نمونه جدید للگورتیم ساخت درخت را از بت اجرا مي کند. ۰ ويژگي ها: ** حافظه مورد نياز زياد. * سرعت کم. ** درختي مشابه درخت 1123 ایجاد مي کند! nm

صفحه 37:
يادگيري افزایث يشي درخت هاي تصميم گيري الگوریتم 14]: اساس کار این الگوریتم دسته بندي ورودي جدید و خراب کردن زيردرختي است که بهترین صفت برا ی ارزیابی در آن انتخاب فشده باشد. ويژگي ها: * این الگوریتم ساخت درختي مشایه درخت 1123 را تضمین نمي کند. در برخي موارد قادر به یافتن درخت مناسب ثیست. ۳۷

صفحه 38:
يادگيري افزا يشي درخت ‎cle‏ تصمیم گيري الگوریتم 1051۴ ** تضمین مي‌کند که با استفاده از داده‌هاي آموزشي یکسان درخت حاصل از آن مشبه درخت توليدي الگوریتم 1123 خواهد بود. ** تفاوت این للگوریتم با 104 در روش تغییر ويژگي لرزيابي در يك گره است. * به جاي آنکه زیر درخت مربوط به گرهي که قرار است ويژگي مورد ارزيلبي ن تفییر كند كلا خراب شود, لین زیر درخت رابه گونه‌اي بازسازي مي‌کند که ويژگي مورد نظر در ريشه قرار بگیرد. ** شامل دو الگوریتم به روز رساني درخت و بازسازي است. * براي بازسازي درخت.لین الگوریتم در هر گره تعداد نمونه هاي هر يك از كلاس ها را براي هر يك از مقادیر ويژگي ها نگهداري مي کند. به متفيرهاي نگهدارنده هر يك از این مقادیر «شمارنده مورد» گفته مي شود. 2

صفحه 39:
يادكيرى افزايث يشي درخت هاي تصميم گيري الكوريتم به روزرساني درخت 119514 اگر درخت خللي است. درخت را به عنوان يك كره تنها تعريف كن. برجسب كره را برجسب ‎cals‏ ‏آموزشي جدید قرار بده و مجموعه موارد را نيز مجموعداي شامل تنها داده أموزشي آرائه شده قرار ‎oa‏ ‏در شیر این صورت اگر درخت گسترش داده نشده است و برجسب داده آموزشي جديد يا برجسب كره يکي است. داده آموزشي جدید را به مجموعه داده‌هاي گره آضافه کن. دعس اس حور )2 اگر درخت گسترش داده نشده است. آن رابا انتخاب يك صفت دلخواه براي ريشه. يك سطح ‎ae‏ 0 تعداد موارد مثيت و منفي را به اه مقادير ويژگي‌هاي داده آموزشي جدید براي صفت ارزيابي و كليه صفات ديكر در گره خعلي رو ‎Ce‏ اگر در گره فعلي بهترین ويژگي براي ارزيابي انتخاب نشده است. 1 درخت رابهگونه‌ايبازسازي کن که ويژگي مورد نظر در ريشه مورد ارزيابي قرار بكيرد. 11 به صورت بازگشتي بهترین ويژگي براي آرزيلبي در هر يك از زیر درخت‌ها -بجز زیر ‏درختي که در گام 4 به روزرساني مي‌شود- را انتخاب کن. 0 _ زیر درختی از گره جاري که داده آموزشي در ن قرار مي‌گیرد را به صورت بازگشتي به ‎ ‏روزرساني گن و در صورت لزوم آن را گسترش یده ‎ ‎۳

صفحه 40:
يادگيري افزایث يشي درخت هاي تصميم گيري الگوریتم بازسازي 1516 : 1.. اگر ويژگي مورد نظر هم اکنون در ريشه باشد. آنگاه الگورتیم خانمه مي‌یید. 2 در غیر این صورت: @ به صورت بازگشتي هر يك از زیر درخت‌هاي گره فعلي را با انتخاب ويژگي مورد نظر به عنوان ويژگي ارزيابي بازسازي کن. در مواردي که لازم است. درخت را گسترش بده. © هد بت وا ره ی ات ار رسای قبلي قرار بده..

صفحه 41:
يادگيري افزایث يشي درخت هاي تصميم گيري مثالي از به كارگيري الگوریتم 1951۴ : * مجموعه داده هاي مورد استفاده براي ساخت درخت: class height hair eyes - short blond brown tall dark — brown + ۱ tall blond blue - tall dark blue - short dark — blue + tall red blue - tall blond brown + short blond blue

صفحه 42:
يادگيري افزایث نمونه جدید: درخت حاصل: يشي درخت ‎cle‏ تصمیم گيري — short blond brawn (eyes=brown, hair=blond, height=short)

صفحه 43:
يادگيري افزايشي | درخت هاي تصمیم گيري نمونه جدید: ال درخت حاصل: (eyes-brown, hair=blond, height=short)

صفحه 44:
يادگيري افزایث يشي درخت هاي تصميم گيري نمونه جدید: عاو تت ‎tall blond bine‏ + درخت حاصل: ‎height‏ height gotten /” \ att eyes eyes wo Nan (eyessbronn, irblorc) | ۱۵ | | ‏لصم‎ ‎(hait-blond) ——(eir=dark) yes sin mia + ‘height 004 01

صفحه 45:
يادگيري افزایشی درخت ‎cle‏ تصمیم گيري نمونه جدید: حي و ۳ درخت حاصل: eyes. ary ent hair height serena / ‏ی‎ ۱ height 7 ۳ - (heiaht-tal) ——_(haitebiond) (hare dark) ۵۵ |

صفحه 46:
= short dark blue ‏نمونه جدید:‎ درخت حاصل: یج سروس eyes “af Nye ‏مس سا‎ height height height (heigh=shorh ati. | | sorta "eight apa + = -

صفحه 47:
يادكيري افزايث يشي درخت هاي تصميم گيري + tll ‏اف‎ م ع ‎fit Bnd eno‏ سلا سيل مس + درخت حاصل: 5 7 5 bi 7 jnt=tl) eye wey \ gown esa//\ enn na ‘aight height height ainsi ‏رصت متا‎ Non SREP [sn

صفحه 48:
يادگيري افزایث يشي درخت هاي تصميم گيري *_درخت حاصل را مي توان .به شكل فشرده زير نيز ارلئه كرد اما لين كار در الگوریتم 10518 انجام نمي شود. ‎hair‏ ‎blond [2.2] \ dak (0,3)‏ ‎(eyes=blue, height=short) (eyes=blue, heighi=tall)‏ ‎et nha‏ ارسي" ‎wwe”‏ + ® (eyes=brown, height=tall ‏لين‎ ‎(heght-tal) (neigrt-tal

صفحه 49:
يادگيري افزایشی درخت ‎cle‏ تصمیم گيري برررسي پيچيدگي الگوریتم هاي معرفي شده: * پیچیدگی الگوریتم ها بر اساس تعداد نمونه هاي آموزشي (10) است. * دو معیار ارزيابي تعداد افزایش هاي شمانده هاي مورد و محاسبه ارزش تقسیم هستند. Instance-count additions _E-score calculations 13 ۵0۰0 0065) IDS = O(n- b*) O(n-d?) IDSR O(n-d-b*) O(n-b4) 1D3! 007 22 O(n-b4)

صفحه 50:
کاربرد درخت هاي تصمیم گيري * مسائل دسته بندی ‎Using Decision Tree Confidence Factors for Multi °‏ ‎agent Control‏

صفحه 51:
مراجع ]1[ S. R. Safavian, and D. Landgrebe, “A Survey of Decision Tree Classifier Methodology,” IEEE Transactions on Systems, Man, and Cybernetics, Vol. 21, No. 3, pp 660-674, May 1991. [2] R. Duda, and PE. Hart, Pattern Classification and Scene Analysis, Wiley, 1978. [3] A. Webb, Statistical Pattern Recognition, Second Edition, Wiley, 2002. [4] T. M. Mitchel, Machine Learning, McGraw-Hill, 1997. [5] P. E. Utgoff, “Incremental induction of decision tress,” Machine Learning vol. vol. 4, pp.161-186, 1989. [6] P. Stone, M. Veloso, “Using Decision Tree Confidence Factors for Multi agent Control”, 1998.

آشنايي با درخت هاي تصميم گيري ارائه دهنده: احمد نيك آبادي 8313177 استاد: دکتر شيري بهار 84 فهرست مطالب • • • • • • مقدمه طراحي درخت تصميم گيري پرسش هاي مطرح براي درخت تصميم گيري ()CART الگوريتم يادگيري درخت ID3، C4.5 يادگيري افزايشي درخت هاي تصميم گيري کاربرد درخت هاي تصميم گيري 2 مقدمه 3 مقدمه • • • • بردار ويژگ$ي :دوتايي ( )X,Yبيانگر بردار ويژگي (الگو) Xاست و Yبرچسب كالس مربوطه است. اجزاء Xهمان ويژگي‌هاي مورد نظر هستند. الگوي مرت$ب :اگر ويژگي‌هاي Xداراي مقاديري از يك مجموعه مرتب باشند X ،را يك الگوي مرتب ()orderdيا عددي( )numericalمي‌ناميم . الگوي حتم$ي :اگر ويژگي‌هاي بردار مقاديري اختيار كنند كه داراي ترتيب طبيعي نباشند ،آن را يك الگوي حتمي ( )Categoricalمي‌نامند. ويژگي‌هاي عددي (مرتب) ممكن است داراي مقادير گسسته يا پيوسته باشند. • روش هاي دسته بندي: تك مرحله اي چند مرحله اي • مقادير ويژگي ها: پيوسته گسسته 4 معرفي درخت تصميم گيري و برخي تعاريف مورد نياز :نمايي از يك درخت تصميم گيري 5 معرفي درخت تصميم گيري و برخي تعاريف مورد نياز • ميانگين تعداد اليه‌ها از ريشه تا گره‌هاي پاياني را عمق متوسط مي‌ناميم. • ميانگين تعداد گره‌هاي مياني در هر سطح درخت عرض متوسط درخت ناميده مي‌شود. • اگر دو گره داخلي حداقل داراي يك كالس مشترك باشند در اين حالت گفته مي‌شود كه كالس‌ها داراي روي هم افتادگي ( )Overlapهستند. 6 معرفي درخت تصميم گيري و برخي تعاريف مورد نياز نحوة انتساب كالس به يك بردار ورودي در درخت تصميم گيري: • بردار ورودي در گره ريشه قرار مي گيريد. • بردار ورودي در هر گرهي كه قرار مي گيرد با توجه به ارزيابي انجام شده در يكي از شاخه ها پايين مي رود تا در يك برگ قرار بگيرد. • برچسب برگي كه گره در آن قرار مي گيرد به عنوان برچسب بردار برگردانده مي شود. 7 معرفي درخت تصميم گيري و برخي تعاريف مورد نياز مزايا: .1 .2 .3 .4 .5 .6 قوانين توليد شده و به كارگرفته شده قابل استخراج و قابل فهم. کار با داده هاي پيوسته و گسسته. استفاده از نواحي تصميم گيري ساده. حذف مقايسه هاي غيرضروري. استفاده از ويژگي هاي متفاوت براي نمونه هاي مختلف. احتياجي به تخمين تابع توزيع نيست. 8 معرفي درخت تصميم گيري و برخي تعاريف مورد نياز معايب: .1 .2 .3 .4 .5 .6 .7 .8 در مواردي كه هدف تخمين تابعي با مقادير پيوسته است مناسب نيستند. در موارد با تعداد كالس زياد و نمونه آموزشي كم ،احتمال خطا باالست. هزينه محاسباتي باالي توليد درخت تصميم گيري. هرس كردن درخت نيز هزينه بااليي دارد. در مسائلي كه كالس هاي ورودي با نواحي مكعبي به خوبي جدا نشوند خوب عمل نمي كنند. زياد شدن گره پاياني در صورت روي هم افتادگي گره ها. انباشته شدن خطاي اليه ها بر روي يكديگر. طراحي درخت تصميم گيري بهينه مشكل است. 9 طراحي درخت تصميم گيري 10 طراحي درخت تصميم گيري اهداف اصلي درخت‌هاي تصميم‌گيري دسته‌بندي كننده: .1داده‌هاي ورودي را تا حد ممكن درست دسته‌بندي كنند. .2دانش آموخته شده از داده‌هاي آموزشي را به گونه‌اي عموميت ببخشند كه داده‌هاي ديده نشده را با باالترين دقت ممكن دسته‌بندي كنند. .3در صورت اضافه شدن داده‌هاي آموزشي جديد بتوان به راحتي درخت تصميم‌گيري را گسترش داد(داراي خاصيت افزايشي باشند). .4ساختار درخت حاصل به ساده‌ترين شكل ممكن باشد. 11 طراحي درخت تصميم گيري گام‌هاي الزم براي طراحي يك درخت تصميم‌گيري: .1انتخاب مناسبي براي ساختار درخت. .2انتخاب ويژگي‌هايي مورد نظر براي تصميم‌گيري در هر يك از گره‌هاي مياني. .3انتخاب قانون تصميم‌گيري يا استراتژي مورد استفاده در هر يك از گره‌هاي مياني. 12 طراحي درخت تصميم گيري روش‌هاي هيوريستيك ساخت درخت تصميم‌گيري: .1روش‌هاي پايين به باال .2روش‌هاي باال به پايين .3روش تركيبي .4روش‌هاي رشد دهنده-هرس كننده 13 طراحي درخت تصميم گيري روش‌هاي پايين به باال: درخت تصميم گيري از پايين به باال با حركت از برگ ها به سمت ريشه ساخته مي شود. در هر مرحه دو يا چند كالس بر اساس معياري با يكديگر تركيب مي شوند. فرآيند تركيب كالس ها تا زماني كه تنها يك كالس باقي بماند ادامه مي يابد. 14 طراحي درخت تصميم گيري روش‌هاي باال به پايين : • در روش‌هاي باال به پايين براي طراحي درخت تصميم‌گيري سه كار زير انجام مي گيرد: .1انتخاب يك قانون براي تقسيم گره‌ها. .2تصميم‌گيري در مورد اينكه چه گره‌هايي گره پاياني هستند. .3انتساب برچسب كالس به گره‌هاي پاياني. • اكثر كارهاي انجام شده در زمينه درخت هاي تصميم گيري روش هاي باال به پايين هستند. نمونه الگوريتم هاي باال به پايين: ‏ID3، ID4، ID5R، C4.5، CART 15 طراحي درخت تصميم گيري روش هاي رشد دهنده-هرس كننده: در اين روش ابتدا درخت تصميم گيري با استفاده از روشي همچون يك روش باال به پايين ساخته مي شود. در مرحله بعد با استفاده از يك الگوريتم هرس شاخه هاي اضافي درخت حذف مي شوند. • الگوريتم CARTاز جمله اين الگوريتم هاست. • الگوريتم C4.5نيز داراي يك الگوريتم هرس مي باشد. 16 طراحي درخت تصميم گيري روش هاي تركيبي: در اين روش ها از هر دو روش باال به پايين و پايين به باال استفاده مي شود. 17 پرسش هاي مطرح براي درخت تصميم گيري ()CART 18 پرسش هاي مطرح براي درخت تصميم گيري CART الگوريتم ساخت درخت :CART ‏Classification And Regression Trees (CART)  ‏Bereiman(1983)  ارائه نرم افزاري با همين نام كه اين الگوريتم را پياده سازي مي كند توسط Salford ‏Systems الگوريتم هاي ديگري مشابه الگوريتم CARTپياده سازي شده و نشان داده شده كه از CARTبهتر عمل مي كنند. 19 پرسش هاي مطرح براي درخت تصميم گيري CART • براي ساخت درخت تصميم گيري با استفاده از الگوريتم CARTو بسياري از الگوريتم هاي ديگر ساخت درخت بايد به پرسش هاي زير پاسخ داد: .1 .2 .3 .4 .5 .6 ويژگي‌ها به مقادير دوتايي محدود مي‌شوند يا مي‌توانند چند مقدار داشته باشند؟ تعداد مقادير ويژگي‌ها تعداد خروجي‌هاي هر گره را مشخص مي‌كند. در هر گره چه ويژگي بايد ارزيابي شود؟ چه موقع يك گره را به عنوان گره پاياني اعالم كنيم؟ اگر درخت تصميم‌گيري خيلي بزرگ شد چگونه مي‌توان آن را كوچكتر (ساده‌تر) كرد؟ پاسخ اين پرسش الگوريتم هرس را مشخص مي‌كند. اگر يك برگ درخت داراي ناخالصي بود چه برچسب كالسي به آن نسبت داده مي‌شود؟ با نمونه‌هايي كه مقدار برخي ويژگي‌هاي آنان معلوم نيست چگونه برخورد شود؟ 20 پرسش هاي مطرح براي درخت تصميم گيري CART • تعداد انشعاب • انتساب برچسب كالس به برگ‌ها • نمونه‌هايي كه مقادير برخي ويژگي‌هاي آنان مشخص نيست 21 پرسش هاي مطرح براي درخت تصميم گيري CART انتخاب ارزيابي و ناخالصي گره: • معيارهاي اندازه گيري ناخالصي بايد داراي ويژگي هاي زير باشند: در صورتي كه كليه داده‌هاي يك گره به يك كالس تعلق داشته باشند بايد مقدار آن صفر شود. در صورتي كه داده‌ها به صورت مساوي بين تمام كالس‌هاي موجود تقسيم شده باشند بايد بيشترين مقدار خود را داشته باشد. • برخي روش هاي اندازه گيري ناخالصي: ناخالصي انتروپي ناخالصي Gini ناخالصي دسته‌بندي اشتباه 22 پرسش هاي مطرح براي درخت تصميم گيري CART نمودار مقادير معيارهاي مختلف ناخالصي براي حالت دو كالسه 23 پرسش هاي مطرح براي درخت تصميم گيري CART • در هر گره از چه ارزيابي براي تقسيم داده‌ها استفاده كنيم؟ با داشتن رابطه‌اي كه با استفاد از آن بتوان ناخالصي داده‌ها را اندازه‌گيري كرد به دنبال ارزيابي مي‌گرديم كه ناخالصي داده‌ها را تا حد ممكن كاهش دهد. • براي اندازه‌گيري ميزان كاهش ناخالصي در موراد دو كالسه از رابطه استفاده مي‌كنيم. • در اين رابطه NLو NRبه ترتيب بيانگر گره‌هاي چپ و راست ايجاد شده در نتيجه ارزيابي در گره فعلي و PLاحتمال قرار گرفتن نمونه در گره چپ است. 24 پرسش هاي مطرح براي درخت تصميم گيري CART چه موقع تقسيم گره‌ها را خاتمه دهيم؟ • برازش بيش از حد ()overfitting • برخي روش هاي مورد استفاده براي پايان دادن به تقسيم ها: وارسي اعتبار :هر زمان كه خطاي دسته‌بندي براي داده‌هاي ارزيابي از يك حد از پيش تعيين شده كمتر شد آموزش (تقسيم گره‌ها) را خاتمه مي‌دهيم. حد آستانه براي تغييرات ناخالصي :اگر بهترين انتخابي كه براي ارزيابي وجود دارد، ناخالصي را از يك حد آستانه كمتر كاهش‌دهد ،تقسيم در آن گره را خاتمه مي‌دهيم. 25 پرسش هاي مطرح براي درخت تصميم گيري CART هرس كردن درخت تصميم‌گيري: • پديده : horizon effectگاهي اوقات متوقف شدن تقسيم نمونه‌ها در يك گره و اعالم گره ب ه عنوان برگ ب ه دلي ل فقدان پيش‌بيني در مورد ميزان مطلوبي ت تقس يم‌هاي گره‌هاي بعدي است. • روي ه ديگري كه در مقاب ل روش متوق ف س اختن تقس يم ب ه كار گرفت ه مي‌شود ،هرس كردن درخت است. • در اي ن روش ابتدا درخ ت تص ميم‌گيري را ت ا ح د ممك ن گس ترش مي‌دهي م ت ا ب ه كمتري ن مقادي ر ناخالص ي در برگ‌ه ا برس يم .س پس ب ه بررس ي دو برگ مجاور (داراي پدر يكس ان) مي‌پردازيم كه آيا مي‌توان اين دو برگ را با يكديگر تركيب كرد يا خير. 26 پرسش هاي مطرح براي درخت تصميم گيري CART الگوريتم هرس :CART فرض كنيد مقدار) R(tرا از رابطه )R(t) r(t) p(t بدست مي‌آوريم .كه در آن ) r(tنرخ دسته‌بندي اشتباه در گره tاست كه با استفاده از رابطه )r(t) 1 maxp(wj | t ‏Wj محاسبه مي‌شود. باشد و) R (tاز رابطه فرض كنيد Ttزيردرختي با ريشه t ~ ‏ | R (t) R(t)   |T محاسبه شود .كه در آن ثابتي است كه پيچيدگي درخت تصميم‌گيري را به ازاء هر گره پاياني بيان مي‌كند و | |Tمجموعه گره‌هاي پاياني زير درخت است R (t).تخميني از نرخ دسته‌بندي اشتباه و پيچيدگي درخت ارائه مي‌كند. ~ ‏ 27 اگر ) R (T)  R (tآنگاه پيچيدگي هزينه زير درخت كمتر از گره tخواهد بود .اين امر براي مقادير اين  رابطه تا زماني درست خواهد بود كه كم رخ مي‌دهد .با افزايش ) R(t)  R(Tt ‏ ‏Nd (t)  1 ) مقدار g(tرا به شكل زير محاسبه كه در آن) Nd (tتعداد گره‌هاي پاياني زيردرخت Ttاست .در نهايت مي کنيم. ) R(t)  R(Tt ‏g(t)  ‏Nd (t)  1 براي هرس كردن درخت در هر مرحله مقدار ) g(tرا براي تمام گره‌هاي غير برگ محاسبه مي‌كنيم. ت ا زمان ي كه حداق ل اي ن مقدار براي گره‌ه ا از مقدار آس تانه‌اي كمت ر اس ت ،گره ميان ي ب ا كمتري ن مقدار ) g(tرا ب ه عنوان برگ اعالم مي‌كني م و مقدار ) g(tتمام گره‌هاي پدر آ ن ت ا ريش ه را مجدداً محاسبه مي‌كنيم. 28 پرسش هاي مطرح براي درخت تصميم گيري CART الگوريتم يادگيري درخت ID3، ‏C4.5 29 الگوريتم يادگيري درخت ID3، C4.5 الگوريتم :ID3 ‏Quinlan – 1986  باال به پايين پايه بسياري از الگوريتم هاي يادگيري درخت جستجوي حريصانه اي را براي درخت تصميم گيري بهينه انجام مي دهد. الگوريتم :C4.5 ‏Quinlan – 1993  حاصل اعمال برخي بهبودها در الگوريتم ( ID3كار با داده هاي پيوسته ،كار با ويژگي هاي بدون مقدار و ) ... الگوريتم :C5 30 الگوريتم يادگيري درخت ID3، C4.5 الگوريتم :ID3 • كار كردن با مثال‌هاي آموزشي داراي صفات بدون مقدار • كار با صفات داراي مقادير پيوسته • كدام صفت بهترين دسته‌بندي كننده است؟ • مشكل معيا ِر اندازه‌گيري بهره اطالعاتي • مقياس‌ ديگر براي انتخاب صفات نسبت بهره (:)Quinlan 1986, C4.5 ‏Si ‏Si ‏log2 ‏S ‏S ‏c ‏SplitInfor ‏mation (S, A)   ‏i 1 )Gain(S, A ‏SplitInfor ‏mation )(S, A ‏GainRation (S, A)  31 الگوريتم يادگيري درخت ID3، C4.5 كار با صفات داراي هزينه‌هاي متفاوت: گاهي اوقات ويژگي هاي مختلف داراي هزينه‌ محاسبه متفاوتي هستند. مي‌توان با اضافه كردن عبارت هزينه در مقياس انتخاب صفات ID3را به گونه‌اي تغيير داد كه هزينه صفات را نيز در نظر بگيرد. پيشنهادي ارائه شده (جريمه كردن ويژگي با هزينه آن): • Tanو ) Schlimmer (1990و ): Tan (1993 )Gain2 (S, A )Cost( A • )Nunez (1988 2Gain(S, A)  1 (Cost( A)  1) w 32 الگوريتم يادگيري درخت ID3، C4.5 ايجاد پنجره در ID3 روشي براي برخورد با داده‌هاي آموزشي بسيار زياد بدون استفاده از تكنيك ايجاد پنجره الگوريتم‌هاي فوق بسيار كند عمل خواهند كرد نمونه‌اي از يك الگوريتم يادگيري به شكل زير است: ‏ ‏ ‏ ‏ ‏ ‏ زيرمجموعه‌اي از نمونه‌هاي آموزشي را به تصادف انتخاب كنيد. الگوريتم ID3را بر روي نمونه‌هاي آموزشي انتخاب شده اجرا و درخت تصميم‌گيري حاصل را بدست آوريد. كليه نمونه‌هاي آموزشي را با استفاده از درخت به دست آمده دسته‌بندي كنيد .نمونه‌هاي آموزشي را كه اشتباه دسته‌بندي شده‌اند در مجموعه‌اي همانند Eقرار دهيد. در صورتي كه Eتهي بود الگوريتم خاتمه مي‌يابد. زير مجموعه نمونه‌هاي آموزشي ( )Sرا برابر با اجتماع Sو Eقرار بده. به گام 2برو و الگوريتم ID3را براي زيرمجموعه نمونه‌هاي آموزشي جديد اجرا كن. 33 يادگيري افزايشي درخت هاي تصميم گيري 34 يادگيري افزايشي درخت هاي تصميم گيري يادگيري درخت تصميم گيري: غير افزايشي :الگوريتم درخت تصميم گيري مورد نظر را در يك بار آموزش با داده‌هاي آموزشي ياد مي‌گيرد. افزايشي :با دريافت هر نمونه آموزشي جديد در صورتي كه الزم باشد ،الگوريتم ،درخت يادگرفته شده را بازبيني مي‌كند و ممكن است آنچه را كه ياد گرفته است بهبود بخشد. • ويژگي هاي الگوريتم افزايشي خوب: حافظه مورد نياز كم. سرعت بازسازي باالي درخت. توليد درختي مناسب نسبت به روش هاي غيرافزايشي. • • الگوريتم هاي CARTو ID3كه تا اينجا ديديم همگي الگوريتم هاي غير افزايشي بودند. برخي الگوريتم هاي افزايشي ساخت درخت: ’ID3  ‏ID4  ‏ID5R  35 يادگيري افزايشي درخت هاي تصميم گيري الگوريتم :’ID3 ساده ترين ساخت درخت تصميم گيري به صورت افزايشي است. كليه نمونه هاي آموزشي را نگهداري مي كند و با دريافت هر نمونه جديد الگورتيم ساخت درخت را از ابتدا اجرا مي كند. • ويژگي ها: حافظه مورد نياز زياد. سرعت كم. درختي مشابه درخت ID3ايجاد مي كند! 36 يادگيري افزايشي درخت هاي تصميم گيري الگوريتم :ID4 اساس کار اي ن الگوريتم دسته بندي ورودي جدي د و خراب کردن زيردرخت ي است که بهترين صفت برا ي ارزيابي در آن انتخاب نشده باشد. ويژگي ها: اين الگوريتم ساخت درختي مشايه درخت ID3را تضمين نمي كند. در برخي موارد قادر به يافتن درخت مناسب نيست. 37 يادگيري افزايشي درخت هاي تصميم گيري الگوريتم :ID5R تضمين مي‌كند كه با اس تفاده از داده‌هاي آموزشي يكس ان درخ ت حاصل از آ ن مشابه درخت توليدي الگوريتم ID3خواهد بود. تفاوت اين الگوريتم با ID4در روش تغيير ويژگي ارزيابي در يك گره است. به جاي آنكه زي ر درخ ت مربوط به گرهي كه قرار اس ت ويژگ ي مورد ارزيابي آ ن تغيير كند ك ً ال خراب شود ،اين زير درخت را به گونه‌اي بازسازي مي‌كند كه ويژگي مورد نظر در ريشه قرار بگيرد. شامل دو الگوريتم به روز رساني درخت و بازسازي است. براي بازسازي درخت ،اين الگوريتم در هر گره تعداد نمونه هاي هر يك از كالس ها را براي هر يك از مقادير ويژگي ها نگهداري مي كند .به متغيرهاي نگهدارنده هر يك از اين مقادير «شمارنده مورد» گفته مي شود. 38 يادگيري افزايشي درخت هاي تصميم گيري الگوريتم به روزرساني درخت ID5R .1اگر درخت خالي است ،درخت را به عنوان يك گره تنها تعريف كن .برچسب گره را برچسب داده آموزشي جديد قرار بده و مجموعه موارد را نيز مجموعه‌اي شامل تنها داده آموزشي ارائه شده قرار بده. .2در غير اين صورت اگر درخت گسترش داده نشده است و برچسب داده آموزشي جديد با برچسب گره يكي است ،داده آموزشي جديد را به مجموعه داده‌هاي گره اضافه كن. .3در غير اين صورت )aاگر درخت گسترش داده نشده است ،آن را با انتخاب يك صفت دلخواه براي ريشه ،يك سطح گسترش بده. )bتعداد موارد مثبت و منفي را به ازاء مقادير ويژگي‌هاي داده آموزشي جديد براي صفت ارزيابي و كليه صفات ديگر در گره فعلي به روز رساني كن. )cاگر در گره فعلي بهترين ويژگي براي ارزيابي انتخاب نشده است، درخت را به گونه‌اي بازسازي كن كه ويژگي مورد نظر در ريشه مورد ارزيابي قرار بگيرد. .I .IIبه صورت بازگشتي بهترين ويژگي براي ارزيابي در هر يك از زير درخت‌ها –بجز زير درختي كه در گام dبه روزرساني مي‌شود -را انتخاب كن. )dزي ر درخت ي از گره جاري كه داده آموزش ي در آ ن قرار مي‌گيرد را ب ه ص ورت بازگشت ي به روزرساني كن و در صورت لزوم آن را گسترش بده. 39 يادگيري افزايشي درخت هاي تصميم گيري الگوريتم بازسازي : ID5R .1اگر ويژگي مورد نظر هم اكنون در ريشه باشد ،آنگاه الگورتيم خاتمه مي‌يابد. .2در غير اين صورت: )aبه صورت بازگشتي هر يك از زير درخت‌هاي گره فعلي را با انتخاب ويژگي مورد نظر به عنوان ويژگي ارزيابي بازسازي كن .در مواردي كه الزم است ،درخت را گسترش بده. )bويژگي انتخاب شده را در ريشه و ويژگي قبلي را در ريشه هر يك از زيردرخت‌هاي قبلي قرار بده. 40 يادگيري افزايشي درخت هاي تصميم گيري مثالي از به كارگيري الگوريتم : ID5R مجموعه داده هاي مورد استفاده براي ساخت درخت: 41 يادگيري افزايشي درخت هاي تصميم گيري نمونه جديد: درخت حاصل: 42 يادگيري افزايشي درخت هاي تصميم گيري نمونه جديد: درخت حاصل: 43 يادگيري افزايشي درخت هاي تصميم گيري نمونه جديد: درخت حاصل: 44 يادگيري افزايشي درخت هاي تصميم گيري نمونه جديد: درخت حاصل: 45 يادگيري افزايشي درخت هاي تصميم گيري نمونه جديد: درخت حاصل: 46 يادگيري افزايشي درخت هاي تصميم گيري نمونه جديد: درخت حاصل: 47 يادگيري افزايشي درخت هاي تصميم گيري • درخت حاصل را مي توان به شكل فشرده زير نيز ارائه كرد اما اين كار در الگوريتم ID5R انجام نمي شود. 48 يادگيري افزايشي درخت هاي تصميم گيري برررسي پيچيدگي الگوريتم هاي معرفي شده: پيچيدگي الگوريتم ها بر اساس تعداد نمونه هاي آموزشي ( )nاست. دو معيار ارزيابي تعداد افزايش هاي شمانده هاي مورد و محاسبه ارزش تقسيم هستند. 49 کاربرد درخت هاي تصميم گيري • مسائل دسته بندی Using Decision Tree Confidence Factors for Multi • agent Control 50 مراجع [1] S. R. Safavian, and D. Landgrebe, “A Survey of Decision Tree Classifier Methodology,” IEEE Transactions on Systems, Man, and Cybernetics, Vol. 21, No. 3, pp 660-674, May 1991. [2] R. Duda, and P.E. Hart, Pattern Classification and Scene Analysis, Wiley, 1978. [3] A. Webb, Statistical Pattern Recognition, Second Edition, Wiley, 2002. [4] T. M. Mitchel, Machine Learning, McGraw-Hill, 1997. [5] P. E. Utgoff, “Incremental induction of decision tress,” Machine Learning vol. vol. 4, pp.161-186, 1989. [6] P. Stone, M. Veloso, “Using Decision Tree Confidence Factors for Multi agent Control”, 1998. 51
39,000 تومان