صفحه 1:
صفحه 2:
عدم قطعيت و قانون بیز
دانشجو : فریده گل محمدی
استاد : جناب آقای گودرزی پور
صفحه 3:
فهرست منابع:
قضیه بیز
اصل عدم قطعیت
معادله اصلی
یادگیری ماشینی به کمک نظربه بیز
تثورى بیز در یادگیری ماشین
تعریف مفاهیم اولیه
فرمول بیز
نتیجه گیری
متابع
صفحه 4:
قضيه بيز(به انكليسي: tg) (Bayes' theorem برای دسته
بندى بديدههاء بر پایه احتمال وقوع یا عدم وقوع یک پدیدهاست و
در نظریه احتمالات با اهمیت و پرکاربرد است. اگر برای فضای
نموتهاى مفروضى بتوانيم چنان افرازی تخاب كنيم كه با دانستن اينكه
كداميك از بيشامدهاى افراز شده رخ دادهاست» بخش مهمى از عدماطمينان
تقليل يابد.
آمار
بيزى
تثورى
صفحه 5:
این قضیه از آن جهت مفید است که میتوان از طریق OT احتمال یک
پیشامد را با مشروط کردن نسبت به وقوع و یا عدم وقوع یک پیشامد
دیگر محاسبه کرد. در بسیاری از حالتهاء محاسية احتمال یک پیشامد
به صورت مستقیم کاری دشوار است. با استفاده از این قضیه و مشروط
كردن بيشامد مورد نظر نسبت به بيشامد ديكرء میتوان احتمال مورد
نظر ر حاسبه کرد.
صفحه 6:
اصل عدم قطعیت (به انس : ۱۱۱۵6۲۱۵10۷
6آ0۳[۳) در مکانیک کوانتومی را ورنر هایزنبرگ»
فیزیکدان آلانی» در سال ۱۹۲۶ فرمولبندی کرد
صفحه 7:
در فیزیک کوانتومی» اصل عدم قطعیت هایزنبرگ اظهار میدارد که
جفتهای مشخصی از خواص فیزیکی. مانند مکان و تکانه. نیتواند با
دقتى دلخواه معلوم گردد. به عبارت is افزایش دفت در کمیت یکن
از آن خواص مترادف با کاهش کاهش دقت در کمیت خاصیت Se اسك
این عبارت به دو روش گوناگون تفسیر شدهاست. بنا بر دیدگاه هایزنبرگ غير
مکن است که هزمان سرعت و مکان الکترون با هر ذرهٌ دیگری با دقت یا
قطعيت دلخواه معين شود. بنا بر دیدگاه گروه دوم که افرادی چون بالنتین در آن
قرار دارند.
صفحه 8:
» اين عبارت راجع به حدودیت دانشمندان در اندازه گیری کمیتهای خاصی از
سیستم نیست. بلکه امری است راجع به طبیعت و ذات خود سیستم چنان که
معادلات مکانیک کوانتومی شرح میدهد. در مکانیک کوانتوم يك ذره به وسيلة
بست موج شرح داده میشود. اگر اندازه گیری مکان ذره مد نظر باشد. طبق
معادلات ذره میتواند در هر مکانی که دامن موج صفر نیست. وجود داشته باشد
و اين به معنی عدم قطعیت مکان ذره است. برای به دست آوردن مکان دقیق ذره»
اين بستة موج باید تا حد مکن «فشرده» شود. که یعنی» ذره باید از تعداد زیادی
موج سینوسی که به یکدیگر اضافه شدهاند (بر روی هم جمع شدهاند) ساخته
شود.
صفحه 9:
بیان ریاضی اصل عدم قطعیت این است که هر حالت کوانتومی اين خاصیت را
دارد که ريشه متوسط مربع (8/۷15) انحرافات از مقدار متوسط مکان (موقعیت)
(انحراف استاندارد توزیع (X
ضرب در ۷5 انحرافات تکانه از مقدار متوسطش (انحراف استاندارد
۳
((() - )۱/۱ ال
AP = y((P~(P))?)
صفحه 10:
هیچگاه نمیتواند از کسر ثابتی از ثابت پلانک کوچکتر باشد:
هر عمل اندازه گیری با دقت حالت کوانتومی \ تقلیل داده و منجر به
افزایش انحراف استاندارد تکانه به مقداری بزرگتر از میشود.
صفحه 11:
دوگانگی موج و ذره
صفحه 12:
معادله اصلی
فرض مى كنيم 81,....8|6 يك افراز براى فضاى مونهاى5 تشکیل
دهند. طورى كه به ازاى هر>ا...,1-ل » داشته باشيم 2)8[(<0 و
فرض كنيد ۸ پیشامدی با فرض۸۱(<0) باشدء در اينصورت به
امكل لصا 3 دارع:
له زا
لشت - رم
207 ۳ ۲ ۱۳۱۸
صفحه 13:
برهان
طبق تعریف احتمال شرطی دارم . P(BA)
P(BIA) - BC
صورت کسر قضیه طبق دستور حاصلضرب در احتمال شرطی؛ برابر با
اهعم
و مخرج كسر بنابر قضيه قانون احتمال كل» برابر Pid)
اسث.
صفحه 14:
گر ۸ و 8 دو پیشامد مفروض باشند» میتوان پیشامد ۸٩ را به صورت زیر در
نظر بگییم: ۸۵۸8۱1۸8
صفحه 15:
یادگیری ماشینی به کمک نظریه بیز
برای نگرش بیزی به یادگیری ماشین (و یا هر فرایند دیگر)
میباید نخست:
1 -دانش موجود در باره موضوع را بصورت احتمالاتی فرموله کنیم:برای
اینکار باید مقادیر کیفی دانش را بصورت توزیع احتمال» فرضیات
استفلال و غیره مدل کرد. اين مدل دارای پارامترهای ناشناختهای
خواهد بود که برای هر یک از مقادیر ناشناخته» توزیع احتمال اولیهای
در نظر گرفته میشود که بازگو کننده باور ما به محتمل بودن هر يك
ازاین مقادیر بدون دیدن دادهاست.
صفحه 16:
2-با جم آوری داده و مشاهده آن مقدار توزیع احتمال ثانویه را حاسبه
م ی کنیم
با استفاده از اين احتمال ثانویه:
3-به یک نتیجه گیری در مورد عدم قطعیت میرسیم
4-با میانگین گیری روی مقادیر احتمال انویه پیش بینی انجام میدهیم
9 ای کاهش خطای ثانویه مورد انتظار تصمیم گیری م ی کنیم
صفحه 17:
تتوری بیز در یادگیری ماشین
در یادگیری ماشین معمولا در فضای فرضیه |۲ بدنبال بعترین فرضیهای
هستیم که درمورد دادههای آموزشی (] صدق کند. یک راه تعیین FS
فرضیه اين است که بدنبال حتمل ترین فرضیهای باشیم که با داشتن
دادههای آموزشی 2 و احتمال قبلی در مورد فرضیههای مختلف میتوان
انتظار داشت تثورى بيز جنين راه حلی را ارائه میدهد. اين روش راه حل
مستقیمی است که نیازی به جستجو ندارد.
صفحه 18:
سنگ بنای یادگیری بیزی را تقوری بیز تشكيل مى دهد. لين تقوری
امکان حاسبه احتمال ثانویه را بر (DIA) P(A)
مبنای احتمالات اولیه میدهد: ات
PUD) = =
همانطور که مشاهده میشود با افزایش مقدار کاهش مییابد. زیرا هر
چه احتمال مشاهده (] مستقل از ۱] بیشتر باشد به اين معنا خواهد
بود که 0] شواهد کمتری در مایت از (آدر بر دارد.
صفحه 19:
تعربف مفاهیم اولیه
فرض کنید که فضای فرضیه و مجموعه مثامای آموزش موجود باشند. مقادیر احتمال
زیر را تعریف می کنیم:
(0)0: احتمال اولیای (0۲۵۵۵۵۱18۷ 0۳۵۲) که فرضیه 0 قبل از مشاهده
مثال آموزشی] داشتهاست . آگر چنین احتمالی موجود نباشد میتوان به تمامی
فرضیهها احتمال یکسانی نسبت داد.
(0)0:احتمال اولیهای که داده آموزشی0] مشاهده خواهد شد.
(2)0۷/۱:احتمال مشاهده داده(] آموزشی به فرض آنکه فرضیه ۱] صادق باشد.
صفحه 20:
(2)۱:احتمال ثانویه 0۳۵۵۵0۱10 00506۲[0۲) نامیده میشود
یعنی احتمال اينکه با مشاهده داده آموزشی 0 فرضیه ۱ صادق باشد و
در یادگیری ماشین به دنبال یافتن اين احتمال است.
توجه شود که احتمال اولیه ( (0)/۱) مستقل از داده آموزشی است
ولی احتمال ثانویه ((0)۳۱00 ) تاثیر داده آموزشی را منعکس
میکند.
صفحه 21:
بیز فرمولي دارد براي محاسبه: قطعه قطعه يك احتمال
براي محاسیه احتمال 7 و هر قطعه هم از فرمول
اشتراك P(ENF)=P(EF)P
.كمك بگیریم (F)
به دو قطعه فرض کنید پیشامد ديگري به "7 وجود دارد که دو قطعه افراز ۳ به
مثلا براي افرا ز نام
۳ کر۳(/باشد
ترنیب
:آنگاه داریم PE=PENF+P(ENF)
صفحه 22:
P(E\F)P(F)+P(E\F)P(F)
= P(E\F)P(F)+P(E\F)[1-P(F)]
معادله E Vly برابر است با حاصلضرب احتمالي شرطي 18 صورتي که
بیانگ رآن است که احتمال پیشامد
رخ داده ۶ با فرض اين كه ”1 رخ نداده است. هر احتمال شرطي به اندازه
مي دانیماحتمال پيشامدي که به آن مشروط 77 است و احتمال شرطي
شده است وزن داده شده است . اين فرمول بسیار سودمند است زیرا با
استفاده از آن مي توانيم احتمال يك پیشامد را ابتدا با مشروط کردن آن
يربخ لدب بیج ند وجود ادب دك ربش امد تعبيناء يم احتمال يك پیشامد
دشوار است, در صو رتي که
اگر بدانیم پیشامد معین دومي رخ داده یا نداده است محاسبه آن
.ساده است, با چند مثال آن را توضیح م یدهیم
صفحه 23:
oan رای او
دو گروه تقسیم کرد : گروهي که مستعد تصادف اند و
گروهي۰ تصادفي در زمان معيني که نیستند . آمارهاي این
شرکت نشان م ي دهد که يك فرد مستعد تصادف, با
احتمال عدر صد ,در ظرف يك دوره يك ساله معین خواهد
داشت. در صورتي که این احتمال براي يك فرد فاقد اين
استعداد به ۲درصد کاهش مي يابد. اگر فرض کنیم که ۳۰
درصد جامعه اي مستعد تصادف است. احتمال این که بیمه
گذار جديدي درظرف مدت يك سال از قرارداد بیمه, يك
تصادف داشته باشد چقدر است؟
صفحه 24:
7
احتمال مطلوب را ابتدا با شرط این که آیا بیمه گذار مستعد تصادف است
يا خیر, به دست م ي آوریم. فرض
كنيد لل
پيشامدي را که بیم گذار در ظرف يك سال از خريد 4 بتشامدي راكه
يك تصادف داشته باشد و
بیمه گذار مستعد تصادف است نفان دهد در این صورت احتمال مطلوب
عبارت است از
P(A1)=P(A1|A)P(A)+P(A1|
Ac)P(Ac)=(.4)(.3)+(.2)
(.7)=.26
صفحه 25:
در هر شاخهای از علوم قواعد و قوانین خاصی وجود دارند که صحت
و درستی این قوانین بدون اثبات پذیرفته میشود. اینگونه قواعد را
Lol مینامند. بنابراینِ در هر علمی تعدادی اصل علمی وجود دارد
,که بزای متخضضین آن علم بطوز کامل آشتا هنستتد
اکنون کاربرد قاعده پرقدرت بیز (يعني توانايي خوبي در حل
مسائل به ماامی دهد) رادر مقالهايي ديديم. باذمان باشد قاعده
بیز را p(FiE),P(Fi) را داده باشند یا ساده تر از حل مستقیم
زعانی استفاده كنيم كه مسئلة بقوان آنهارا نذست آورد:
تشخیص درست۳ ها(فرازبندی 5 هم نکته قابل توجهی می
صفحه 26:
منابع
*#دگروت-اسکرویش, احتمال و آمار جلد اول. ترجه دکتر عینالُه پاشا. ۰۱۳۸۵ ISBN. AA
-978-964-395-871-8
A first course of probability .sheldon ross sixth edition
*Olmpiad.roshd.ir