علوم پایه آمار

Logistic Regression

logistic_regression

در نمایش آنلاین پاورپوینت، ممکن است بعضی علائم، اعداد و حتی فونت‌ها به خوبی نمایش داده نشود. این مشکل در فایل اصلی پاورپوینت وجود ندارد.




  • جزئیات
  • امتیاز و نظرات
  • متن پاورپوینت

امتیاز

درحال ارسال
امتیاز کاربر [0 رای]

نقد و بررسی ها

هیچ نظری برای این پاورپوینت نوشته نشده است.

اولین کسی باشید که نظری می نویسد “Logistic Regression”

Logistic Regression

اسلاید 1: 1Logistic RegressionInstructor : Saeed Shiry&

اسلاید 2: ایده اصلیدسته بندی کننده بیزی برای محاسبه P(Y|X) لازم دارد تا مقادیر P(Y) و P(X|Y) را یاد بگیرد. چرا مستقیما P(Y|X) یاد گرفته نشود؟لجستیک رگراسیون مقدار احتمال فوق را محاسبه میکند.دسته بندی کننده بیزی یک دسته بندی مولد است در حالیکه لجستیک رگراسیون یک دسته بندی کننده discriminative است.2

اسلاید 3: 3مقدمهبر خلاف نامش این روش برای دسته بندی مورد استفاده قرار میگیرد نه رگراسیون.برای حالت K = 2 این مدل بسیار ساده بوده و از یک تابع خطی بهره می جوید.بردار ورودی بصورت < X1 … Xn > و بردارخروجی Y بولین در نظر گرفته میشود.تمام Xi ها از Y مستقل فرض شده و مقدار P(Xi | Y = yk) گوسی در نظر گرفته میشود. N(μik,σi)همچنین توزیع P(Y) بصورت برنولی در نظر گرفته میشود.

اسلاید 4: مقایسه با رگراسیون خطیبرای مدل کردن متغیرهائی که مقادیر محدودی به خود میگیرند بهتر از رگراسیون خطی عمل میکند زیرا مدل خطی هر مقداری را در خروجی تولید میکند درحالی که برای چنین متغیرهائی مقادیر محدودی مورد نیاز است.در رگراسیون خطی مقدار متغیر مورد نظر از ترکیب خطی متغیرهای مستقل بدست می آید در حالیکه در لجستیک رگراسیون از ترکیب خطی تابع logit استفاده میشود.در رگراسیون خطی پارامترها به روش least squares بدست می آیند در حالیکه این روش برای لجستیک رگراسیون فاقد کارائی بوده و از روش maximum likelihood estimation برای پیدا کردن پارامترها استفاده میشود.4

اسلاید 5: logistic functionمقدار این تابع و مشتق آن توسط روابط زیر تعریف میشود:5

اسلاید 6: احتمال تعلق به دسته هااحتمال تعلق به هر دسته را میتوان بصورت تابع لجستيک در نظر گرفت:ضرایب w با استفاده از gradient ascent تعیین میشود.6

اسلاید 7: احتمال تعلق به دسته هابرای مقادیر پیوسته رابطه بصورت زیر است7

اسلاید 8: فرضیات رابطه قبلبرای بدست آوردن رابطه فوق از فرض گوسی بودن توزیع احتمال استفاده شده است:8

اسلاید 9: سایر نتایج9

اسلاید 10: Discriminant functionsمدل LR یک مرز خطیبین دو دسته تعیین میکند.برای مرز دو دسته داریم:از اینرو خواهیم داشت:10

اسلاید 11: برای حالت چند کلاسه11

اسلاید 12: بدست آوردن وزنهافرض میشود که تعداد L داده آموزشی داشته باشیم.برای بدست آوردن وزنها میتوان ازmaximum likelihood estimate استفاده کرد:باید وزنهای W=<w0, ... wn> طوری انتخاب شوند که مقدار درستنمائی داده ماکزیمم شود. بجای رابطه فوق از درست نمائی شرطی استفاده میشود:12

اسلاید 13: Expressing Conditional Log Likelihoodمیتوان برای محاسبه مقدار فوق از log عبارت فوق استفاده نمود.13با فرض اینکه Y فقط یکی از دو مقدار 0 یا 1 را دارد خواهیمداشت:

اسلاید 14: Maximizing Conditional Log Likelihoodهیچ راه حل بسته ای برای ماکزیمم کردن درست نمائی شرطی وجود ندارد.استفاده از تکنیک نزول گرادیان یکی از راه حل های موجود است:14

اسلاید 15: Maximize Conditional Log Likelihood: Gradient Ascentتغییرات وزن تا زمانی ادامه می یابد که مقدار آن خیلی ناچیز شود.15توجه شود که عبارت داخل پرانتز بسادگی اختلاف بین مقدار هدف و مقدار تابع احتمال آن استمقادیر اولیه وزنها صفر در نظر گرفته میشود و مقادیر نهائی از تکرار عبارت زیر بدست می آید

اسلاید 16: مشکلات استفاده از MLبه خاطر ماهیت concave بودن تابع l(W) رابطه فوق حتما ماکزیمم global را پیدا خواهد کرد.استفاده از ML می تواند برای داده های جدا پذیر خطی به over fitting شدید منجر شود. دلیل این امر این است که راه حل ML وقتی اتفاق می افتد که σ = 0.5 و یا wTφ =0 شده و منجر به بزرگ شدن وزنها میشود.این امر حتی وقتی که تعداد داده ها نسبت به تعداد پارامترها زیاد باشد روی خواهد داد.16

اسلاید 17: Regularization in Logistic Regressionبرای پرهیز از over fitting میتوان از عبارت رگولاریزیشن استفاده نمود. این جمله طوری اضافه میشود که وزنهای بزرگ را جریمه نماید:با افزودن این جمله تابع هدفی که باید ماکزیمم شود بصورت MAP در می آید زیرا تخمین MAP بردار وزن دارای فرم کلی زیر است.که در آن P(W) دارای توزیع گوسی با میانگین صفر و واریانس است.17میزان تاثیر جمله جریمه را تعیین میکند

اسلاید 18: استفاده از MAPبا افزودن ترم جریمه میتوان مطابق حالت قبل عمل یافتن وزنها را با مشتق گیری و روش صعود گرادیان انجام داد:18modified gradient descent rule:

اسلاید 19: MLE vs MAPدو روش MlE و MAP هر یک از روابط زیر برای پیدا کردن وزنها استفاده میکنند.19

اسلاید 20: Logistic Regression for functions with Many Discrete Valuesبرای حالت غیر بولین که Y هر مقدار را میتواند داشته باشد داریم:در نتیجه قانون تغییر وزنها بصورت زیر در می آید20مشاهده میشود که حالت بولین حالت خاصی از روابط فوق است.

اسلاید 21: Generative Classifiersدر اغلب مسایل عملی بدلیل پیچیدگی زیاد و یا وجود عدم قطعیت نمی توان مدل ریاضی مشخصی را بدست آورد. در چنین شرایطی می توان از مدل های احتمالاتی استفاده نمود که در آنها دانش اولیه بصورت تابع چگالی احتمال مدل شده و با مشاهده داده مقدار احتمال ثانویه محاسبه میشود. نمونه هائی از مدلهای مولد:21hiddenMarkov modelsBayesian networksmixture model

اسلاید 22: Use Naïve Bayes or Logisitic Regression?لاجستیک رگراسیون مستقیما مقدار P(Y|X) را محاسیه میکنددرحالیکه بیزین ساده، ابتدا مقادیر P(Y) and P(X|Y) را محاسبه میکند.نشان داده میشود که وقتی تعداد داده های آموزشی زیاد باشد و شرایط Gaussian Naive Bayes هم برقرار باشد لاجستیک رگراسیون و Gaussian Naive Bayes در حالت حدی به دسته بندی مشابهی میرسند.در حالیتکه شرط Gaussian Naive Bayes برقرار نباشد لاجستیک رگراسیون نتایج بهتری بوجود می آورد.همگرایی لاجستیک رگراسیون کند تر است.در لاجستیک رگراسیون باید تعداد نمونه ها زیاد باشد ( 50 نمونه بازای هر دسته)when conditional independence assumptions incorrect• LR is less biased – does not assume cond indep.• therefore expected to outperform GNB when both given infinite training dataNumber of parameters:• NB: 4n +1• LR: n+1convergence rate of parameter estimates – how manytraining examples needed to assure good estimates?• GNB order log n (where n = # of attributes in X)• LR order n22GNB converges more quickly to its (perhaps lessaccurate) asymptotic estimates

اسلاید 23: آیا دسته بندی کننده بیزی خطی است؟وقتی بردار X دارای ویژگی های گسسته باشد الگوریتم بیز را میتوان بصورت یک دسته بندی کننده خطی در نظر گرفت. برای حالت پیوسته نیز اگر واریانس هر ویژگی مستقل از کلاس در نظر گرفته شود میتوان آنرا خطی در نظر گرفت.(i.e., if sik = si)23

اسلاید 24: Probabilistic Generative Modelsدر نگرش بیزین احتمال شرطی p(x|Ck) و احتمال اولیه p(Ck) از روی داده های آموزشی یادگرفته شده و برای ساختن احتمال ثانویه p(Ck|x) بکار میروند.برای ورودی های پیوسته تابع چگالی احتمال شرطی کلاسی بصورت گوسی فرض میشود:24

اسلاید 25: Probabilistic Generative Modelsبرای حالت دو کلاسه داریم:در این رابطه با فرض اینکه تمامی کلاسها ماتریس کوواریانس یکسانی دارند جملات مرتبه 2 از x حذف شده و رابطه بصورت خطی در می آید.25

34,000 تومان

خرید پاورپوینت توسط کلیه کارت‌های شتاب امکان‌پذیر است و بلافاصله پس از خرید، لینک دانلود پاورپوینت در اختیار شما قرار خواهد گرفت.

در صورت عدم رضایت سفارش برگشت و وجه به حساب شما برگشت داده خواهد شد.

در صورت بروز هر گونه مشکل به شماره 09353405883 در ایتا پیام دهید یا با ای دی poshtibani_ppt_ir در تلگرام ارتباط بگیرید.

افزودن به سبد خرید