بهینه سازی کشف اطلاعات از مستندات نیمهساختیافته XML
اسلاید 1: دانشجومينا ملكياستاد راهنمادكتر احمد عبداللهزاده بارفروش1 بهمن 1385Optimizing Information Discovery from Semi-Structured XML Documents دفاعيه پايان نامه كارشناسي ارشدبهينه سازي كشف اطلاعات از مستندات نيمهساختيافته XMLدانشگاه صنعتي امير كبيردانشکده مهندسي کامپيوتر و فناوري اطلاعات
اسلاید 2: عناوين اصليضرورت انجام پژوهشهدف پژوهشطبقه بندي مستنداتروش هاي وزن دهي ويژگيروش وزن دهي ويژگي پيشنهادي TFCRFروش وزن دهي ويژگي پيشنهادي LBTFسيستم طبقه بندي كننده مستندات نيمه ساختيافته XMLمشخصات بستر آزمايشگاهي پياده سازي شده نتايج ارزيابيهاي انجام شده نتيجه گيري، دستاوردهاي پروژه، پيشنهاد كارهاي آينده
اسلاید 3: ضرورت انجام پژوهش مستندات وبساختيافته ؟بازيابي+جستجو+ فهم و يادگيري + ارزيابي + استخراج اطلاعات+...کشف خودكار دانشهاي جديد، الگوها، ارتباطات در مجموعه وسيعي از مستنداتخوشه بنديخلاصه سازي...مستندات نيمه ساختيافته XMLكشف خودكار اطلاعات ازمستندات نيمه ساختيافته XML متن كاويطبقه بندي
اسلاید 4: هدف پژوهش بهبود كارايي طبقه بندي كنندهبهبود كشف اطلاعات از مستندات نيمه ساختيافته XMLسازماندهي مستندات تشخيص موضوع مستندات جستجوي ساختيافته و پيدا كردن مستندات در راستاي علايق كاربر شاخص بندي خودكار مستندات در سيستمهاي بازيابي اطلاعات مرتب كردن بلادرنگ نامه هاي الكترونيكي يا فايلها در سلسله مراتبي از پوشه هاتشخيص معناي کلمات مبهم ارائه راهكاري به منظور بهبود كارايي طبقه بندي كننده جهت بهبود فرايند كشف اطلاعات از مستندات نيمه ساختيافته XML
اسلاید 5: طبقه بندي مستنداتطبقهبندي مستندات = انتساب اسناد متني بر اساس محتوي به يك يا چند طبقه از قبل تعيين شده فازهاي طبقه بنديفاز آموزشيساخت مدل با استفاده از مستندات آموزشيفار آزمايشي استفاده از مدل بر روي مستندات آزمايشيماتريس تصميم گيري
اسلاید 6: مراحل طبقه بندي مستنداتپيش پردازش مستندات شاخص بندي مستنداتتبديل مستندات به برداري از كلمات تشكيل دهندهانتخاب ويژگيكاهش ابعاد بردار كلمات وزن دهي ويژگيتعيين ميزان اهميت و قدرت كلمات انتخاب شده در متمايز كردن هر مستند از ساير مستنداتطبقه بندي مستنداتاعمال الگوريتم طبقه بندي بر روي بردار كلمات انتخاب و وزن دهي شده مستنداتطبقه بندي كننده هاي بيزيننزديكترين K همسايه (KNN)درخت هاي تصميم گيريشبكه هاي عصبي ماشين هاي بردارهاي پشتيبان (SVM)آستانه يابي تكرار مستندات (DF)بهره اطلاعاتي (IG)قدرت ويژگي (TS)روشروش هاي مبتني بر TFروش هاي مبتني بر IDF
اسلاید 7: راهكار بهبود كارايي طبقه بندي كنندهارائه الگوريتم جديدطبقه بندي كننده مستنداتبهبود عمليات پيش پردازش
اسلاید 8: راه حل پيشنهاديمتن كاويطبقه بندي مستنداتپيش پردازشوزن دهي ويژگيانتخاب ويژگيشاخص بنديخوشه بنديخلاصه سازيپرسش و پاسخاستخراج اطلاعاتالگوريتم طبقه بنديبهبود روش وزن دهي ويژگي براي بالابردن كارايي طبقه بندي كنندهمستندات نيمه ساختيافته XML
اسلاید 9: روش هاي وزن دهي ويژگيوزن دهي ويژگيk: تعداد ويژگي هاي متمايز در كل مجموعة Dwik: وزن دهي ويژگي tk در مستند diروش هاي متداول وزن دهي ويژگيروشهاي مبتني بر TF تابعي از توزيع ويژگي در هر يك از مستندات روشهاي مبتني بر IDF تابعي از توزيع ويژگي در مجموعه مستندات Dروش هاي مبتني بر اطلاعات طبقاتتابعي از توزيع ويژگي در طبقاتاگر
اسلاید 10: روش وزن دهي ويژگي مبتني بر TFنام روشرابطهتوضيحاتTF#(tk’ di) تعداد تكرار ويژگيtk در مستند dinormTF-logTF-ITFr=1Sparckk تعداد ويژگي هاي منحصر به فرد در مجموعةD ايده: افزايش وزن دهي ويژگي با افزايش فركانس ويژگي در هر مستند.
اسلاید 11: روش هاي وزن دهي ويژگي مبتني بر IDFايده: كاهش وزن ويژگي با افزايش فركانس ويژگي در مجموعه مستندات D.IDFTFIDFnormTFIDF
اسلاید 12: روش وزن دهي ويژگي مبتني بر اطلاعات طبقاتروش TFRFسال 2005 توسط آقاي Lan
اسلاید 13: روش وزن دهي ويژگي پيشنهادي TFCRF a: تعداد مستندات فاقد ويژگي x از كلاس c1 b: تعداد مستندات داراي ويژگي x از كلاس c1 c: تعداد مستندات داراي ويژگي x از كلاس غير c1 d: تعداد مستندات فاقد ويژگي x از كلاس غير c1a تعداد مستندات متعاق به كلاس c1تعداد مستندات متعلق به كلاس هاي غير c1b c d (1)(2)(3)(4)
اسلاید 14: روش وزن دهي ويژگي پيشنهادي TFCRF(ادامه)وزن x در (1)= وزن x در (2) = وزن x در (3) = وزن x در (4)a تعداد مستندات متعاق به كلاس c1تعداد مستندات متعلق به كلاس هاي غير c1b c d (1)(2)(3)(4) روش هاي وزن دهي ويژگي مبتني بر IDF روش TFRFوزن x در (4)< وزن x در (3) < وزن x در (1) < وزن x در (2)
اسلاید 15: روش وزن دهي ويژگي پيشنهادي TFCRF(ادامه)روش وزن دهي ويژگي TFRFروش وزن دهي ويژگي منطقيa تعداد مستندات متعاق به كلاس c1تعداد مستندات متعلق به كلاس هاي غير c1b c d (د)(ج)(ب)(الف)وزن x (الف)= وزن x (ب) = وزن x (ج) = وزن x (د)وزن x (الف) < وزن x (ب) < وزن x (ج) < وزن x (د)
اسلاید 16: روش وزن دهي ويژگي پيشنهادي TFCRF (ادامه)
اسلاید 17: روش وزن دهي ويژگي پيشنهادي LBTFمثال: طبقه بندي مقالات علمي برچسب گذاري شده XMLفركانس ويژگي x در ”عنوان“ 1 بار ”چكيده“ 2 بار ” متن“100 بارروش وزن دهي ويژگي TFروش وزن دهي ويژگي منطقيمساله: تعيين ميزان اهميت (وزن) اجزاء مستند نيمه ساختيافتهراه حل1: فرايند مكاشفه اي در تعيين ميزان اهميت هر جزء (Giri سال 2004)راه حل2: طبقه بندي كننده متا (Bratko سال 2004 و 2006)راه حل 3: روش وزن دهي ويژگي LBTF پيشنهادي (Maleki در سال 2007)103=100+2+1= وزن ويژگي xوزن جزء متن*100+وزن جزء چكيده*2+وزن جزء عنوان*1= وزن ويژگي x
اسلاید 18: روش وزن دهي ويژگي پيشنهادي LBTF (ادامه)ايده: وزن دهي ويژگي براساس اطلاعات ساختاري مستندات نيمه ساختيافته XML تكنيك: توجه به چگالي هر يك از اجزاء تشكيل دهنده مستند XMLمجموعه اجزاء موجود در مستندات XML مجموعه D
اسلاید 19: سيستم طبقه بندي كننده مستندات نيمه ساختيافته XMLمستندات نيمه ساختيافته XML واحد پيش پردازشگر مستندات نيمه ساختيافته XML واحد طبقه بندي کنندهمستندات نيمه ساختيافته طبقه بندي شده XML
اسلاید 20:
اسلاید 21: زيرسيستم پالاينده مستندات وظيفه: دريافت و پالايش مجموعه مستندات XML ورودي جهت تعيين مجموعه D ورودي: مستندات نيمه ساختيافته XMLخروجي: مستندات پالايش شده XML به عنوان مجموعه Dمولفه هاحذف كننده برچسب هاي غير ضروريبررسي كننده ساختار مستندات XMLانتخاب كننده مستندات XML پالايش شدهحاوي اطلاعات معنايي مهم نيستند. در تعداد كمتري از مستندات مجموعه وجود دارند. قابل تبديل به برچسب هاي ديگر هستند. شناسايي و اصلاح اجزاء غير خوش فرم حذف اجزاء تهي داراي بيشترين برچسب
اسلاید 22: زيرسيستم استخراج كننده ويژگي هاوظيفه: پردازش مجموعه مستندات D جهت استخراج ويژگي هاي مهم با حفظ اطلاعات ساختاريورودي: مجموعه مستندات Dخروجي: مجموعه مستندات D شاخص بندي شدهمولفه هاتحليلگر لغوي ساختاريسازنده پايگاه دادهپالاينده لغوي شاخص بندي مستندات و استخراج كلماتحذف اعداد و علائم نگارشي يكسان سازي شكل حروف حذف كلمات توقف ريشه يابي كلماتبا حفظ اطلاعات مكانيريشه يابي شده
اسلاید 23: زيرسيستم استخراج كننده ويژگي ها (ادامه)قالب مستندات شاخص بندي شده
اسلاید 24: زيرسيستم كاهنده ويژگي هاوظيفه: كاهش ابعاد ويژگي هاي تشكيل دهنده مستندات و انتخاب بهترين آنها ورودي: جداول پايگاه داده حاوي ويژگي هاي شاخص بندي شده ساختاريخروجي: ليستي از ويژگي هاي انتخاب شدهمولفه هافيلتر كننده ويژگي هاانتخاب كننده ويژگي تعريف حد آستانه پائين و بالاحذف ويژگي هاي نادراشكال املائي يا ذهن خلاق نويسنده (!)حذف ويژگي هاي وافر كلمه توقف حذف نشده شناسايي و حذف ويژگي هاي داراي بار معنايي پائينتر از ساير ويژگي ها
اسلاید 25: زيرسيستم وزن دهي ويژگي وظيفه: تعيين ميزان اهميت هر يك از ويژگي هاي مستند در متمايز كردن آن مستند از ساير مستنداتورودي: برداري از ويژگي هاي انتخاب شده به همراه اطلاعات شاخص بندي مكاني آنهاخروجي: بردار ويژگي هاي وزن دهي شده
اسلاید 26: مشخصات بستر آزمايشگاهي پياده سازي شدهپياده سازي در چارچوب .Net به زبان برنامه نويسي C# با بيش از 6500 خط كدمستندات ورودي inex
اسلاید 27: مجموعه مستندات inexشامل 12107 مقاله علمي از 18 مجله انتشارات انجمن كامپيوتر IEEE از سال 1995 تا 2002 به فرمت XML تاريخچه
اسلاید 28: مجموعه مستندات inexشامل 12107 مقاله علمي از 18 مجله انتشارات انجمن كامپيوتر IEEE از سال 1995 تا 2002 به فرمت XML تاريخچهبرچسب هاي مستندات inexبرچسب هاي پايهحفظ برچسب ابتدا/انتها و محتويات
اسلاید 29: مجموعه مستندات inexشامل 12107 مقاله علمي از 18 مجله انتشارات انجمن كامپيوتر IEEE از سال 1995 تا 2002 به فرمت XML تاريخچهبرچسب هاي مستندات inexبرچسب هاي پايهبرچسب هاي حذف شدنيحذف برچسب ابتدا/انتها و محتويات
اسلاید 30: مجموعه مستندات inexشامل 12107 مقاله علمي از 18 مجله انتشارات انجمن كامپيوتر IEEE از سال 1995 تا 2002 به فرمت XML تاريخچه : دانشگاه Duisburg آلمانبرچسب هاي مستندات inexبرچسب هاي پايهبرچسب هاي حذف شدنيبرچسب هاي تبديل شدنيتبديل برچسب ابتدا/ انتها مبدا به مقصد
اسلاید 31: مجموعه مستندات inexشامل 12107 مقاله علمي از 18 مجله انتشارات انجمن كامپيوتر IEEE از سال 1995 تا 2002 به فرمت XML تاريخچهبرچسب هاي مستندات inexبرچسب هاي پايهبرچسب هاي حذف شدنيبرچسب هاي تبديل شدنيبرچسب هاي ساختاريحذف برچسب ابتدا/ انتها
اسلاید 32: مجموعه مستندات inexmodified
اسلاید 33: مشخصات بستر آزمايشگاهي پياده سازي شدهپياده سازي در چارچوب .Net به زبان برنامه نويسي C# با بيش از 6500 خط كدمستندات ورودي inexالگوريتم طبقه بندي كننده SVM
اسلاید 34: الگوريتم طبقه بندي كننده SVMهدف: پيدا کردن تمام صفحات در فضاي r بعدي که نمونههاي مثبت و منفي را با بيشترين حاشيه از هم جدا كنند.مزاياي SVM:بهترين الگوريتم طبقه بندي مستنداتقابليت كار با تعداد ويژگي هاي زياد عدم تاثير تعداد ويژگي بر كارايي الگوريتمپايداريپياده سازي توسط LIBSVMحاشيه كوچكحاشيه بزرگ
اسلاید 35: مشخصات بستر آزمايشگاهي پياده سازي شدهپياده سازي در چارچوب .Net به زبان برنامه نويسي C# با بيش از 6500 خط كدمستندات ورودي inexالگوريتم طبقه بندي كننده SVMروش انتخاب ويژگيآستانه يابي فركانس مستندات (DF)
اسلاید 36: انتخاب ويژگي DF دليل انتخابسادگيهزينه محاسباتي پائيندقت و كارايي معادل بهترين روش هاي انتخاب ويژگي نظير IGمناسب در حوزه طبقه بندي مستنداتايده: ظاهر شدن ويژگي در تعداد مستندات بيشتر بالا بودن ارزش معنايي ويژگي جهت تفكيك طبقات از يكديگر (بعد از حذف كلمات توقف)راهكار: شمارش تعداد مستندات داراي ويژگي
اسلاید 37: مشخصات بستر آزمايشگاهي پياده سازي شدهپياده سازي در چارچوب .Net به زبان برنامه نويسي C# حدود .... خط كدمستندات ورودي inexالگوريتم طبقه بندي كننده SVMروش انتخاب ويژگي DFروشهاي وزن دهي ويژگيمبتني بر TF +مبتني برIDF + TFRF + TFCRF + LBTF تقسيم بندي مستندات به نسبت 3/2 آموزشي و 3/1 آزمايشيتعداد كلمات توقف بعد از تكميل 1392 كلمه 1079 كلمه توقف ريشه يابي شده
اسلاید 38: معيارهاي ارزيابي
اسلاید 39: نتايج ارزيابيهاي انجام شده تاثير فيلتر كردن ويژگي ها حد آستانه پائين 10% كل تعداد مستندات
اسلاید 40: نتايج ارزيابيهاي انجام شده (ادامه)ارزيابي روش وزن دهي ويژگي LBTF 180 مستند وروديبدون فيلترميانگين تعداد كلمات در هر برچسب و وزن برچسبعنوان: 5 ويژگي وزن برچسب عنوان 2/0 چكيده: 40 ويژگي وزن برچسب چكيده 09/0كلمات كليدي: 11 ويژگي وزن برچسب كلمات كليدي 025/0 متن: 439 ويژگي وزن برچسب متن 002/0نتيجه منطقي
اسلاید 41: نتايج ارزيابيهاي انجام شده (ادامه)ارزيابي روش وزن دهي ويژگي LBTF تعداد مستندات: 180تعداد كل ويژگي ها:10816 بهترين مقدار AccuracyTF: 46 درصدLBTF: 55 درصد
اسلاید 42: نتايج ارزيابيهاي انجام شده (ادامه)ارزيابي روش وزن دهي ويژگي LBTF LBTF
اسلاید 43: نتايج ارزيابيهاي انجام شده (ادامه)ارزيابي روش وزن دهي ويژگي LBTF TF
اسلاید 44: نتايج ارزيابيهاي انجام شده (ادامه)ارزيابي روش وزن دهي ويژگيTFCRF تعداد مستندات: 720تعداد ويژگي:26434 TF: 73/0 به ازاي 8000 ويژگي Sparck : 767/0 به ازاي 2000 ويژگي
اسلاید 45: نتايج ارزيابيهاي انجام شده (ادامه)ارزيابي روش وزن دهي ويژگيTFCRF TFRF883/0 به ازاي 2000 ويژگيTFCRF933 /0 به ازاي 4000 ويژگي
اسلاید 46: نتايج ارزيابيهاي انجام شده (ادامه)تاثير تعداد مستندات بر روي روش TFCRF TFCRFTFRF
اسلاید 47: نتايج ارزيابيهاي انجام شده (ادامه)تاثير فيلتر كردن ويژگي ها بر روش TFCRF
اسلاید 48: نتيجه گيري بهبود كارايي طبقهبندي كننده مستندات نيمه ساختيافتهXML (حدود 5 الي 9 درصد) با بكارگيري روش وزن دهي ويژگي LBTFافزايش سرعت طبقهبندي كننده مستندات نيمه ساختيافتهXML در رسيدن به بيشترين حد كارايي با بكارگيري روش وزن دهي ويژگي LBTF بهبود كارايي طبقهبندي كننده مستندات (حدود 5 درصد) با بكارگيري روش وزن دهي ويژگي TFCRFعدم وابسته بودن كارايي روش طبقهبندي كننده مستندات مبتني بر TFCRF با تغيير تعداد مستندات ورودي افزايش سرعت محاسباتي با كاهش تعداد ويژگي ها (83% در 360 مستند و 89% در 720 مستند) كاهش ناچيز كارايي طبقهبندي كننده مستندات مبتني بر TFCRF (حدود 004/0)
اسلاید 49: دستاوردهاي پروژهارائه روش جديدي براي طبقهبندي مستندات نيمه ساختيافته XMLطراحي و پياده سازي چارچوبي جهت ارزيابي اجزاء مختلف سيستم طبقهبندي كننده مستندات نيمه ساختيافتهطراحي و پياده سازي يك تحليلگر لغوي ساختاري براي شاخص بندي كردن مستندات نيمه ساختيافته با حفظ اطلاعات ساختاري ويژگيهاي تشكيل دهنده آنهاارائه روش جديدي براي وزن دهي برچسب ها و تعيين ميزان اهميت هر يك از اجزاءارائه روشي جديد براي وزن دهي ويژگيهاي مستندات نيمه ساختيافته براساس موقعيت ويژگي (LBTF)ارائه روش جديد براي وزن دهي ويژگي براساس اطلاعات طبقات (TFCRF)بكارگيري روش وزن دهي ويژگي Sparck در حوزه طبقهبندي مستنداتارائه ليست كاملي از كلمات توقف + ايده جديد به منظور دستيابي به بهينه ترين ليست كلمات توقف
اسلاید 50: پيشنهاد كارهاي آينده بهبود نحوه وزن دهي اجزاء مستندات نيمه ساختيافتهتركيب روش هاي وزن دهي ويژگيارائه روش جديدي براي انتخاب ويژگي از مستندات نيمه ساختيافتهاستفاده از WordNet براي توليد برداري از ويژگيهاي مفهوميبرچسب گذاري مستندات فارسي طبقهبندي مستندات فارسي
اسلاید 51: مراجعكتابT. Mitchell, Machine Learning, McGraw Hill, New York, US, 1999.R. Baeza, N. Ribeiro, Modern Information Retrieval, ACM press, New York, US, 1999. J. Han, M. Kamber, Data Minig: Concepts and Techniques, Morgan Kaufman Publisher, 2001. P. Baldi, P. Frasconi, P. Smyth, Modeling the Internet and the Web-Probabilistic Methods and Algorithms,chapter4, Wiley, 2003. M. W. Berry, Survey of Text Mining, Clustering, Classification, and Retreival, Springer Publisher, 2004. وزن دهي ويژگيE. Leopold, J. Kindermann, “Text Categorization with Support Vector Machines. How to Represent Texts in Input Space?,” Journal of Machine Learning, vol. 46, no. 1-3, pp. 423-444, 2002.Z.H. Deng, S.W. Tang, D.Q. Yang, M.Z.h. Li-Yu Li, K.Q. Xie, “A Comparative Study on Feature Weight in Text Categorization,” 6th Asia Pacific Web Conference, Hangzhou, China, April 14-17, 2004.M. Lan, S.Y. Sung, H.B. Low, .C.L. Tan, “A Comparative Study on Term Weighting Schemes for Text Categorization,” IEEE International Conference on Neural Networks (IJCNN05), pp. 546-551, 2005. J. Zhang, T.N. Nguyen, “A New Term Significance Weighting Approach,” Journal of Intelligent Information System, vol. 24. no. 1, pp. 61-85, 2005.
اسلاید 52: مراجعطبقه بندي مستندات نيمه ساختيافتهژ. صفي خاني، رويکردي نو در کاوش شبکة گستردة جهاني با هدف ساخت يک دروازة وب براي دستيابي به مجموعة طبقهبندي شدهاي از اطلاعات، پايان نامه كارشناسي ارشد، دانشكده مهندسي كامپيوتر و فناوري ارتباطات، دانشگاه صنعتي اميركبير، 1384.پ. مرادي دولت آبادي، ساخت پرتال با استفاده از تکنيکهاي وبکاوي، پايان نامه كارشناسي ارشد، دانشكده رياضي و علوم کامپيوتر، دانشگاه صنعتي اميركبير، 1385. .H.J. Oh, S.H. Myaeng, M.H. Lee, “A practical Hypertext Categorization Method Using Links and Incrementally Available Class Information,”23rd ACM International Conference on Research and Development in Information Retrieval (SIGIR00), pp. 264-271, Athens, GR, 2000. M. Diligenti, M. Gori, M. Maggini, F. Scarselli, “Classification of HTML Documents by Hidden Tree Markov Models,” ICDAR01, pp. 849-853, USA, 2001.Y. Yang, S. Slattery, R. Chani, “A Study of Approaches to Hypertext Categorization,” Journal of Intelligent Information Systems, vol. 18, no. 2/3, pp. 219-241, 2002.A. Bratko, B. Filipic, “A Study of Approaches to Semi-structured Document Classification,” Technical Report IJS-DP-9015, Department of Intelligent Systems, Jozef Stefan Institute, November 2004.L. Denoyer and P. Gallinari, “Baysian Network Model for Semi-Structured Document Classification,” Journal of Information Processing and Management, vol. 40, no. 5, pp. 807-827, 2004.A. Bratko, B. Filipic, “Exploiting Structural Information for Semi-structured Document Categorization,” Information Processing & Management, vol. 42/3, pp. 679-694, Elsevier, 2006.طبقه بندي مستنداتY. Yang, X. Liu, “A Re-Examination of Text Categorization Methods,” 22nd ACM International Conference on Research and Development in Information Retrieval(SIGIR-99), pp. 42–49, Berkeley, US, 1999. F. Sebastiani, “Machine Learning in Automated Text Categorization,” ACM Computing Surveys, vol. 34, no. 1, pp. 1–47, 2002.
اسلاید 53: مقالات مستخرج از پروژهM. Maleki, A. Abdollahzadeh, A New Location-based Feature Weighting Method for Categorization of Semi-structured Documents, accepted in the 31st Annual Conference of the German Classification Society on Data Analysis, Machine Learning, and Applications (GFKL 2007), March 2007, Freiburg i. Br., Germany. M. Maleki, A. Abdollahzadeh, TFCRF: A Novel Feature Weighting Method Based on Class Information in Text Categorization (revised version), accepted in the 31st Annual Conference of the German Classification Society on Data Analysis, Machine Learning, and Applications (GFKL 2007), March 2007, Freiburg i. Br., Germany. M. Maleki, A. Abdollahzadeh, TFCRF: A Novel Feature Weighting Method Based on Class Information in Text Categorization, accepted in the 19th international conference on Computer, Information and Systems Science and Engineering, (ICKM 2007), 29-31 January 2007, Bangkok, Thailand. م. ملكي، ا. عبدالله زاده، ”TFCRF: روش جديد وزن دهي ويژگي مبتني بر اطلاعات كلاس در حوزة طبقه بندي مستندات“، پذيرفته شده در دوازدهمين كنفرانس انجمن مهندسي كامپيوتر ايران (CSICC 2007)، 1-3 اسفند 1385، دانشکده برق و کامپيوتر دانشگاه شهيد بهشتي، تهران، ايران.
اسلاید 54: تشکر و قدرداني
اسلاید 55: پرسش و پاسخ
نقد و بررسی ها
هیچ نظری برای این پاورپوینت نوشته نشده است.