memari_amel_ha

در نمایش آنلاین پاورپوینت، ممکن است بعضی علائم، اعداد و حتی فونت‌ها به خوبی نمایش داده نشود. این مشکل در فایل اصلی پاورپوینت وجود ندارد.






  • جزئیات
  • امتیاز و نظرات
  • متن پاورپوینت

امتیاز

درحال ارسال
امتیاز کاربر [0 رای]

نقد و بررسی ها

هیچ نظری برای این پاورپوینت نوشته نشده است.

اولین کسی باشید که نظری می نویسد “معماری عامل ها”

معماری عامل ها

اسلاید 1: معماری عامل ها

اسلاید 2: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab2معماری انتزاعی عامل هامی توانیم نمایش انتزاعی از عامل را بصورت فرمال بنویسیم. این نمایش فرمال در ساخت عامل کمکی به ما نمی کند.فرض کنید E مجموعه ای متناهی از حالات باشد و فرض کنید که محیط می تواند در هر لحظه در یکی از این حالات باشد.E = {s1, s2, …}عامل بصورت مخزنی از اعمال آن فرض می شود که حالات محیط را انتقال می دهند.A = {a1,a2, …}

اسلاید 3: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab3عامل استانداردبصورت انتزاعی یک عامل را می توان بصورت یک تابع انتقال حالت مشاهده کرد action: S*  A یک عامل براساس سابقه اش تصمیم می گیرد که چه اقدامی انجام دهد.رفتار(غیر قطعی) محیط را می توان بصورت یک تابع مدل کردenv : S * A  Y(S)می توانیم تعامل عامل و محیط را بصورت یک سابقه نمایش دهیم. a0 a1 a2 a3 au-1 au h: s0  s1  s2  s3  …. Su  ….h می تواند یک سابقه ممکن از عامل در محیط را نمایش می دهد اگر و تنها اگر شرایط زیر برقرار باشند:به ازای هر u متعلق به N به ازای هر u متعلق به N بطوری که u>0

اسلاید 4: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab4عامل واکنشی محض (PRA)این عامل بدون مراجعه به سابقه اش تصمیم می گیرد که چه انجام دهد. این عامل اتخاذ تصمیم خود را کاملا برمبنای زمان حال قرار می دهد و به هیچ وجه توجهی به گذشته ندارد.نمایش فرمال این عامل به این صورت است: action: S  A به ازای هر PRA یک عامل استاندارد معادل آن وجود دارد. اما عکس آن همیشه درست نیست. مثال: ترموستات یک عامل PRA است.

اسلاید 5: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab5تصحیح مدل انتزاعیتفکیک تابع تصمیم گیری عامل به زیر سیستم های زیر:ادراک: تابع see توانایی عامل در مشاهده محیط خود را نشان می دهد. این تابع در سخت افزار می تواند بصورت دوربین ویدیویی یا حسگر مادون قرمز بر روی یک روبات متحرک پیاده سازی شود. در نرم افزار می تواند دستورات سیستمی ای باشند که اطلاعات مربوط به محیط نرم افزار را دریافت می کنند. خروجی تابع see یک ادراک است:see : S  Pعمل: تابع action فرآیند اتخاذ تصمیم عامل را نمایش می دهد.action : P*  A تابع action دنباله ای از ادراکات را به اعمال نگاشت می کند.

اسلاید 6: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab6زیر سیستم های ادراک و عملمحیطعاملادراکعمل

اسلاید 7: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab7عامل های دارای حالت داخلیاین عامل ها دارای ساختار داده ای می باشند که عموما برای ثبت اطلاعات وضعیت محیط و سابقه عملیات عامل از آنها استفاده می شود. فرض کنید I مجموعه تمام حالات داخلی عامل باشد.see : S  P تابع ادراکaction : I  A تابع انتخاب عمل next : I * P  I حالت داخلی و ادراک را به یک حالت داخلی نگاشت می کند

اسلاید 8: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab8عامل های دارای حالت داخلی (ادامه)محیطعاملactionseestatenext

اسلاید 9: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab9عامل های دارای حالت داخلی (ادامه)حلقه کنترلی عاملآغاز فعالیت عامل از وضعیت اولیه i0 مشاهده وضعیت محیط s و تولید ادراک See(s)به روز آوری وضعیت داخلی از طریق تابع next(i0,See(s)) انتخاب عمل مناسب توسط تابع action(next(i0,See(s))) تکرار از مرحله 2

اسلاید 10: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab10وظایف عامل هاعامل ها را می سازیم تا برایمان وظایفی انجام دهند.وظیفه باید توسط ما تعیین شود.اما می خواهیم به عامل بگوییم چه انجام دهند بدون این که به آن بگوییم چگونه آن را انجام دهد.

اسلاید 11: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab11توابع سودمندی بر روی حالتیک راه: به هر حالت یک سودمندی نسبت دهید. وظیفه عامل آن است که به حالاتی برسد که به حداکثر سودمندی منجر می شوند.توصیف وظیفه یک تابع بصورت زیر است:u : E  Rاین تابع یک عدد حقیقی به هر حالت محیط نسبت می دهد.

اسلاید 12: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab12سودمندی و اجرا (سابقه)اما مقدار اجرا چیست؟مینیمم سودمندی حالت در اجرا؟ماکزیمم سودمندی حالت در اجرا؟مجموع سودمندی های حالات در اجرا؟میانگین آن؟عیب: تعیین یک نمایش طولانی مدت در هنگام نسبت دادن سودمندی به حالات دشوار است.یک راه: تخفیف برای حالات از یک زمان به بعد

اسلاید 13: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab13سودمندی در اجراراه دیگر: سودمندی را به جای حالات به اجراها نسبت دهید.u : h  Rچنین رویکردی به خودی خود نمایش طولانی مدت را لحاظ می کند.صورت های دیگر: احتمال حالات مختلف پدید آمده را نیز در نظر بگیرید.مشکلات رویکردهای بر مبنای سودمندی:این اعداد و مقادیر از کجا می آیند؟تفکرات ما براساس سودمندی نیست.فرموله کردن وظایف به این صورت مشکل است.

اسلاید 14: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab14سودمندی در بازی دنیای کاشی هایک شبکه دو بعدی که در آن عامل، کاشی ها، موانع و حفره هایی وجود دارند.عامل می تواند در چهار جهت بالا، پایین، چپ و راست حرکت کند و اگر در کنار یک کاشی باشد می تواند آن را هل دهد.حفره ها باید با کاشی ها توسط عامل پر شوند. عامل با پرکردن حفره توسط کاشی امتیاز می گیرد و قصد دارد که تا حد ممکن حفره های بیشتری را پر کند.دنیای کاشی ها با ظاهر شدن و ناپدید شدن حفره ها بصورت تصادفی تغییر می کند.تابع سودمندی بصورت زیر تعریف می شود: h تعداد حفره های پرشده در u(h) = -------------------------------- h تعداد حفره های ظاهر شده در

اسلاید 15: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab15معماری های عاملپرسش: چگونه عملیات انتزاعی که در قبل دیدیم را می توان پیاده سازی کرد؟قصد ما این است که عامل هایی بسازیم که ویژگی های خودمختاری، واکنشی، کنش گرایی و قابلیت اجتماعی داشته باشند.پاسخ به این پرسش در حوزه معماری عامل ها قرار می گیرد.معماری عامل:یک نقشه از عناصر داخلی عامل – ساختمان داده های آن، اعمالی که ممکن است بر روی این ساختمان داده ها اجرا شوند و جریان کنترلی بین این ساختمان داده ها.

اسلاید 16: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab16چهار نوع معماریچهار نوع معماری برای چهار گروه از عامل ها مطرح است:عامل های منطقی/ نمادینعامل های واکنشیعامل های BDIعامل های ترکیبی و چند لایه

اسلاید 17: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab17تاریخچهدر سالهای 1956 تا 1985 تقریبا تمام عامل هایی که در هوش مصنوعی طراحی می شدند بر مبنای استدلال بودند و از استدلال منطقی در این گونه عامل ها برای تصمیم گیری استفاده شده است.در سال 1985 با توجه به مشکلات استدلال نمادین عامل های واکنشی مطرح شدند.از سال 1990 به بعد تکنیک های معماری ترکیبی ارائه شدند که سعی در ترکیب بهترین معماری های استدلالی و واکنشی را داشته اند.

اسلاید 18: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab18عامل های منطقی/ نمادینساده ترین روش برای ساخت عامل ها این است که آنها را نوع خاصی از سیستم های مبتنی بر دانش بدانیم.این الگو هوش نمادین نامیده می شود .یک معماری منطقی معماری ای است که :در آن عامل شامل مدلی نمادین از دنیای واقعی است که بطور صریح بیان می شود.تصمیمات آن بر مبنای استدلال نمادین یا منطق صورت می گیرد.

اسلاید 19: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab19عامل های منطقی/ نمادین (ادامه)مشکلات عمده عامل های منطقیتعریف تابع نگاشت محیط به ادراک به شکل نمادین مشکل است. به عبارت دیگر تعریف خصوصیات یک محیط پویا و واقعی در قالب مجموعه ای از قوانین استنتاج دشوار است.زمان لازم برای تصمیم گیری این عامل ها قابل کنترل نبوده و احتمال دارد تابع تصمیم گیری هرگز پایان نگیرد.

اسلاید 20: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab20عامل های منطقی/ نمادین (ادامه)عامل چگونه از راه اثبات قضیه تصمیم می گیرد که چه کاری انجام دهد؟ایده اصلی استفاده از منطق برای کد کردن قضیه است که بهترین عملی را که باید در هر موقعیت اجرا شود بیان می کند.فرض کنید:R این قضیه باشد (قوانین قیاسی)D یک پایگاه داده منطقی که حالت جاری جهان را بیان می کندAc یک مجموعه از اعمال که عامل می تواند انجام دهدD |- r j یعنی j بتواند با استفاده از r از D اثبات شود

اسلاید 21: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab21عامل های منطقی/ نمادین (ادامه)see : S  Pnext: D * P  action : D  AD = j (L) یک مجموعه از L پایگاه داده است. وضعیت داخلی هر عامل عضوی از مجموعه D است که D1, D2, ... اعضای D می باشند.

اسلاید 22: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab22عامل های منطقی/ نمادین (ادامه)شبه کد تعریف عملfunction action (p: P) : A/* try to find an action explicitly prescribed */ for each a e Ac do If D |- r Do ( a) then return a end-if end-for /* try to find an action not excluded */ for each a e Ac do If D |- r not Do(a) then return a end-if end-for return null /* no action found */end function action

اسلاید 23: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab23عامل های منطقی/ نمادین (ادامه)مثال: دنیای جاروبرقیهدف روبات روبات جستجوی محیط، کشف آشغال و جارو کردن آن است.

اسلاید 24: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab24عامل های منطقی/ نمادین (ادامه)عامل دنیای جاروبرقیاز سه گزاره در این مثال استفاده می کنیم:In(x,y) عامل در خانه (x,y) قرار داردDirt(x,y) در خانه (x,y) آشغال وجود داردFacing(d) جهت عامل به سمت d است که d می تواند شمال، جنوب، شرق یا غرب باشد.اعمال ممکنAc ={turn,forward,suck} که در آن turn به معنی گردش به راست می باشد.

اسلاید 25: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab25عامل های منطقی/ نمادین (ادامه)قوانین برای تعیین این که چه عملی انجام شودو غیرهعامل با استفاده از این قوانین و با شروع از خانه (0و0) شروع به برداشتن آشغال می کند.

اسلاید 26: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab26عامل های واکنشیمسائل حل نشده فراوانی در رابطه با هوش مصنوعی نمادین وجود دارد.این مشکلات باعث شد که تعدادی از محققین در پی یافتن جانشینی برای آن باشند و سه دیدگاه مطرح شد:دیدگاه اول به رد بازنمایی نمادین و تصمیم گیری براساس ساختار آن پرداخته استدیدگاه دوم این ایده را دارد که رفتار هوشمند عامل ناشی از تعامل با محیط است و بطور مستقل قابل تعریف نیست.در دیدگاه سوم رفتارهای هوشمند متشکل و منتج از رفتارهای ساده تر دانسته شده است. این دیدگاه عامل را مبتنی بر رفتار می داند.

اسلاید 27: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab27عامل های واکنشی (ادامه)Rodney Brooks معماری جزء به کل را مطرح کرد که در آن دو خصوصیت مطرح است:اول این که تصمیم گیری عامل از طریق مجموعه ای از رفتارهای مستقل صورت می گیرد و بر محیط اثر می گذارد. یعنی درک از محیط براساس اثر رفتار به عنوان ورودی نگاشتی از حالت به عمل می دهد.دوم این که تعدادی رفتار بطور همزمان می توانند اجرا شوند.

اسلاید 28: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab28عامل های واکنشی (ادامه)در این معماری رفتارها بصورت لایه های مختلفی ارائه می شوند کههر رفتار یک ساختار شبیه قانون دارد: عمل  وضعیتهر رفتار برای گرفتن کنترل عامل با دیگران رقابت می کند.سطوح بالاتر رفتارهای انتزاعی تری را بروز می دهندلایه های پایین تر قادر به جلوگیری لایه های بالاتر هستند یعنی تقدم بیشتری نسبت یه آنها دارند.

اسلاید 29: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab29عامل های واکنشی (ادامه)تعریف تابع actionfunction action(p:P) : A var fired: j(R) var selected: A beginfired := {(c,a) | (c,a) e R and p e c}for each (c,a) e fired do if not( Exists (c’,a’) e fired such that (c’,a’) (c,a)) then return a end-ifend-forreturn nullend function action

اسلاید 30: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab30عامل های واکنشی (ادامه)یک مثال: سیستم کاوشگر مریخشامل گروهی از روبات (عامل) های جمع آوری نمونه سنگ ها از سطح مریخ می باشد که در آن مکان نمونه ها از قبل مشخص نیست اما می دانیم که نمونه ها در حوالی یکدیگر قرار دارند.هر روبات تا جایی می تواند از مبدا دور شود که امکان دریافت سیگنال از مبدا اصلی باشد.ارتباط بین عامل ها بصورت غیر مستقیم از طریق مبدا صورت می گیرد.اگر نمونه جمع آوری شده توسط یک عامل در مسیر انتقال به مبدا رها شود عامل دیگر آن را برمی دارد.هر یک از این عامل ها به تنهایی دارای رفتار خاص می باشند و مهم ترین و پایین ترین سطح (با بالاترین اولویت) پرهیز از موانع می باشد.

اسلاید 31: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab31عامل های واکنشی (ادامه)گروه های رفتاری و سلسله مراتب عملیات عامل:حس کردنعمل کردنحرکت تصادفیبرداشتن نمونهبازگشت به مبداانداختن نمونهجلوگيری از برخورد با مانع

اسلاید 32: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab32عامل های واکنشی (ادامه)مزایا و معایب معماری واکنشیمزایاساده، مقرون به صرفه، کامل و محکممعایبهمواره باید اطلاعات کافی از محیط برای هر عامل بصورت محلی فراهم باشد.چون تصمیم گیری براساس اطلاعات محلی صورت می گیرد استفاده از این معماری در حالت های غیرمحلی عمومیت ندارد.یادگیری در این معماری با چنان وسعتی همراه خواهد بود که عملا از کارایی آن می کاهد.

اسلاید 33: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab33استدلال عملیاستدلال عملی استدلالی است که جهت گیری آن به سمت اعمال است یعنی فرآیند معین کردن این که چه کاری انجام دهیم.تعریف Bratman از استدلال عملیاستدلال عملی به وزن دادن به ملاحظات مختلف و متضاد به نفع یا برعلیه گزینه های رقیب هم مربوط می شود که در آن ملاحظات مناسب از آنچه که عامل قصد دارد(برایش ارزش دارد/ به آن توجه دارد) و آن چه که عامل باور دارد فراهم می شود.استدلال عملی با استدلال نظری متفاوت است. جهت گیری استدلال نظری به سمت باورها است.

اسلاید 34: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab34استدلال عملی (ادامه)استدلال عملی در انسان شامل دو عمل است:بررسی و قیاس : تصمیم گیری در مورد این که به چه اهدافی می خواهیم برسیمخروجی بررسی و قیاس قصد ها می باشند.استدلال عملی: تصمیم گیری در مورد این که چگونه می خواهیم به این اهداف برسیم

اسلاید 35: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab35بررسی و قیاسعامل چگونه بررسی و قیاس می کند؟ابتدا سعی کنید بفهمید چه گزینه هایی پیش روی شماستاز بین آنها گزینه هایی را انتخاب کنید و متعهد به انجام آنها شوید.گزینه های انتخاب شده قصد ها خواهند بود.تابع بررسی و قیاس را می توان به دو مولفه تقسیم کرد:تولید گزینه ها: در این بخش مجموعه ای از گزینه ها تولید می شود. این کار از طریق تابعی به نام option انجام می شود که باورهای کنونی عامل و قصد های کنونی آن را می گیرد و مجموعه گزینه ها را تعیین می کند.فیلتر کننده گزینه ها: در این بخش تابعی به نام filter بین حالت ها و پیشنهادهای مختلف انتخاب می کند و عامل برای رسیدن به آنها متعهد می شود.

اسلاید 36: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab36استدلال عملیایده اصلی آن است که به عامل نمایش قصد ها و اهدافی که باید به آنها برسدنمایش اعمالی که می تواند انجام دهد و نمایش محیطداده شود تا او برنامه ای را برای رسیدن به هدف تولید کند. در حقیقت این یک برنامه سازی خودکار است.

اسلاید 37: 37Practical ReasoningHuman practical reasoning consists of two activities:– deliberationdeciding what state of affairs we want to achieve; means-ends reasoningdeciding how to achieve these states of affairs.The outputs of deliberation are intentions.

اسلاید 38: 38DeliberationHow does an agent deliberate? – begin by trying to understand what the options available to you are; – choose between them, and commit to some. Chosen options are then intentions.

اسلاید 39: 39DeliberationThe deliberate function can be decomposed into two distinct functional components: – option generation in which the agent generates a set of possible alternatives; and Represent option generation via a function, options, which takes the agent’s current beliefs and current intentions, and from them determines a set of options (= desires). – filtering in which the agent chooses between competing alternatives, and commits to achieving them. In order to select between competing options, an agent uses a filter function.

اسلاید 40: 40Means-Ends ReasoningBasic idea is to give an agent:– representation of goal/intention to achieve;– representation actions it can perform; and– representation of the environment; and have it generate a plan to achieve the goal.Essentially, this is automatic programming.

اسلاید 41: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab41معماری BDIمعماری BDI بر مبنای استدلال عملی استتصمیم گیری در مورد این که به چه اهدافی باید برسیمتصمیم گیری در مورد این که چگونه به آن اهداف برسیمBDIباورها (Beliefs)خواسته ها (Desires)قصد ها (Intentions)

اسلاید 42: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab42معماری BDI (ادامه)قصد ها:از استدلال عملی ناشی می شوندبررسی های آینده را تحمیل می کنندمانا هستندبر روی باورها تاثیر می گذارند که استدلال عملی آینده بر مبنای آنها است

اسلاید 43: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab43معماری BDI (ادامه)تابع بازنگری باورهاباورهاتابع توليد گزينهتمايلاتفيلتر کنندهقصدهاتابع انتخاب عملورودی حسگرعمل خروجی

اسلاید 44: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab44معماری BDI (ادامه)مولفه های عامل BDIباورهااطلاعات عامل را در محیط کنونی اش بیان می کندتابع بازنگری باورهادرک عامل را با نگاشت بر روی محیط دریافت کرده و باورهای جاری را به روز می کند.brf: j(Bel) * P  j(Bel)تابع تولید گزینهورودی آن باورها و قصد عامل بوده و براساس آنها انتخابهای ممکن برای عامل را که در واقع همان تمایلات اوست تعیین می کند options: j(Bel) * j(Int)  j(Des)

اسلاید 45: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab45معماری BDI (ادامه)مجموعه ای از گزینه های معتبر(تمایلات) که مبین اعمالی است که عامل می تواند انجام دهد.یک تابع فیلترکننده که ورودی آن باورها و قصدهای عامل بوده و خروجی آن براساس فرآیند تبادل نظر(قیاس) اهداف (قصدهای) جدید عامل است filter: j(Bel) * j(Int) * j(Des)  j(Int) مجموعه ای از قصدهای جاری که کانون فعالیت عامل را تعیین می کند.تابع انتخاب عمل بر پایه قصد و اهداف فعلی که عملی را که باید انجام شود تعیین می کند execute : j(Int)  A or action: P  A

اسلاید 46: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab46معماری BDI (ادامه)شبه کد تابع action در BDI:function action(p: P) : AbeginB := brf (B,p)D:= options(B,I)I:= filter(B,D,I)return execute(I)end function action

اسلاید 47: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab47مشکلات BDIعاملی که در قصدهای خود تجدید نظر نمی کند تلاش می کند حتی پس از آنکه روشن شد که قابل دستیابی نیستند یا دیگر دلیلی برای رسیدن به آنها وجود ندارد برای رسیدن به آنها تلاش می کندعاملی که پیوسته در قصدهای خود تجدید نظر می کند زمان و منابع را به هدر می دهد.

اسلاید 48: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab48مثالی از یک عامل BDI پیاده سازی شده: عامل PRSدر این سیستم هر عامل دارای مجموعه ای از برنامه ریزی های انجام شده(plan library) می باشد که بیانگر دانش رویه ای عامل است.دانش رویه ای دانشی درباره مکانیزم هایی است که می توانند توسط عامل به منظور تحقق قصد هایش به کار روند.گزینه های پیش روی یک عامل مستقیما توسط برنامه ریزی های آن تعیین می شوند. عاملی که برنامه ریزی ندارد گزینه ای نخواهد داشت.در این سیستم عامل ها بازنمایی صریحی از باورها، تمایلات و قصد ها و نیز دانش رویه ای دارند.

اسلاید 49: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab49عامل PRS (ادامه)معماری PRSباورهاقصد هادانش های رويه ایتمايلاتپردازشگرمحيطورودی حسگرعمل خروجی

اسلاید 50: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab50مثالی از یک عامل BDI پیاده سازی شده: IRMAIRMA چهار ساختمان داده نمادین دارد:مجموعه ای از برنامه ریزی هانمایش صریح از باورها: اطلاعاتی که عامل در اختیار دارد که یا می تواند بصورت نمادین بیان شود حتی می تواند بسادگی تعریف متغیرهای زبان پاسکال باشد.تمایلات: مفاهیمی که مورد نظر عامل است قصدها: تمام اهدافی که عامل به آنها دسترسی داشته و برای رسیدن به آنها تعهد دارد.

اسلاید 51: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab51IRMA (ادامه)معماری آن قسمت های زیر را دارد:یک بخش استدلال: در واقع یک موتور استنتاج است که برای استدلال درباره محیط اطراف عامل بکار می رود.یک تحلیل گر عملی: تعیین می کند که کدام برنامه برای رسیدن به قصد انتخاب شودیک تحلیل گر موقعیت شناس: نظارت بر محیط در صورت ارائه انتخاب های جدید را داردیک برنامه فیلتر کننده: تعیین می کند کدام گزینه با قصد جاری سازگار استیک برنامه بررسی و قیاس: مسئول تصمیم گیری در مورد بهترین قصد برای انجام است.

اسلاید 52: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab52IRMA (ادامه)معماری IRMAموتور استنتاجتحليلگر موقعيتتحليل توالی چند عملفيلتر کنندهقصد هابرنامه بررسی و قياستمايلاتگزينهگزينهعملباورها

اسلاید 53: 4-53Homer

اسلاید 54: 4-54Dialogues with HOMER

اسلاید 55: 4-55Dialogues with Homer

اسلاید 56: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab56معماری چندلایه (ترکیبی)بسیاری از محققین بر این عقیده اند که نه یک روش واکنشی و نه یک روش قیاسی به تنهایی برای ساختن عامل ها کافی نمی باشد.انان سیستم های چند لایه ای را پیشنهاد داده اند که رابطه نزدیکی با روش های کلاسیک دارد.یک رویکرد بدیهی این است که عامل را از دو یا چند زیر سیستم بسازیم:یک بخش قیاسی شامل یک مدل نمادین از جهان که برنامه ریزی ها را ایجاد می کند و از روش ارائه شده در هوش مصنوعی نمادین تصمیم گیری می کند.یک بخش واکنشی که بدون استدلات پیچیده قادر به واکنش در برابر رویدادها می باشد.

اسلاید 57: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab57معماری چندلایه (ادامه)غالبا به مولفه واکنشی نوعی تقدم نسبت به مولفه قیاسی داده می شود.این نوع ساختار بصورت طبیعی به معماری لایه ای منجر می شود که نمونه ای از آن ماشین تورینگ می باشد.در چنین معماری ای زیر سیستم کنترلی عامل بصورت یک سلسله مراتب سازماندهی می شود که در آن لایه های بالاتر با اطلاعات انتزاعی تری سروکار دارند.

اسلاید 58: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab58معماری چندلایه (ادامه)یک مشکل کلیدی در این گونه معماری ها این است که چه نوع چارچوب کنترلی ای برای مدیریت تعاملات و ارتباطات بین لایه های گوناگون باید در زیرسیستم های عامل تعبیه شود.لایه بندی افقی: در این لایه بندی معماری متشکل از دو لایه یا بیشتر است که هر کدام مستقیما به یک حسگر ورودی و یک عملگر خروجی متصل اند.هر لایه به تنهایی همانند یک عامل عمل می کند که پیشنهاداتی راجع به این که چه عملی باید انجام شود تولید می کند.لايه 1لايه 2لايه ...nلايه درک (ورودی)عمل (خروجی)

اسلاید 59: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab59معماری چندلایه (ادامه)لایه بندی عمودیدر این لایه بندی ورودی ها و خروجی ها حداکثر با یک لایه مرتبط می باشند. این ساختار به دو نوع تک مسیره و دو مسیره تقسیم می شود.لايه 1لايه 2لايه ...nلايه لايه 1لايه 2لايه ...nلايه عمل (خروجی)عمل (خروجی)درک (ورودی)درک (ورودی)کنترل تک مسيرهکنترل دو مسيره

اسلاید 60: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab60معماری چندلایه (ادامه)ماشین تورینگشامل سه زیر سیستم درک، عمل و کنترل است که بطور مستقیم با محیط در ارتباط می باشند.سه لایه کنترلی دارد که در یک چارچوب کنترلی هماهنگ کننده لایه ها واقع شده اندلایه واکنش: نسبت به تغییرات محیط واکنش نشان می دهد. پیاده سازی این لایه بصورت مجموعه ای از قوانین در قالب ساختار جزء به کل می باشد.لایه برنامه ریزی: رفتار هدفمند عامل را پیاده سازی می کند و برای این کار از یک کتابخانه از برنامه ها و طرح ها استفاده می کند.لایه مدل ساز: شامل بازنمایی نمادین وضعیت های شناختی موجودیت های دیگر در محیط عامل است.ارتباط بین لایه ها با استفاده از زیر سیستم کنترلی صورت می گیرد که تعیین می کند کدام لایه کنترل عامل را بدست گیرد.

اسلاید 61: آزمایشگاه سیستمهای هوشمندwww.ceit.aut.ac.ir/islab61معماری چندلایه (ادامه)معماری ماشین تورینگیک لایه ای عمودیلايه مدل سازیلايه برنامه ريزیلايه واکنشیزير سيستم عملزير سيستم درکزير سيستم کنترل(قوانين کنترلی)

اسلاید 62: 5-62معماری چندلایه (ادامه) InteRRaP - عمودی و دو طرفه (two-pass)cooperation layerplan layerbehavior layersocial knowledgeplanning knowledgeworld modelworld interfaceperceptual inputaction output

اسلاید 63: 3-63AGENT0 and PLACAMuch of the interest in agents from the AI community has arisen from Shoham’s notion of agent oriented programming (AOP)AOP a ‘new programming paradigm, based on a societal view of computation’The key idea that informs AOP is that of directly programming agents in terms of intentional notions like belief, commitment, and intentionThe motivation behind such a proposal is that, as we humans use the intentional stance as an abstraction mechanism for representing the properties of complex systems. In the same way that we use the intentional stance to describe humans, it might be useful to use the intentional stance to program machines.

اسلاید 64: 3-64AGENT0Shoham suggested that a complete AOP system will have 3 components:a logic for specifying agents and describing their mental statesan interpreted programming language for programming agentsan ‘agentification’ process, for converting ‘neutral applications’ (e.g., databases) into agentsResults only reported on first two components.Relationship between logic and programming language is semanticsWe will skip over the logic(!), and consider the first AOP language, AGENT0

اسلاید 65: 3-65AGENT0AGENT0 is implemented as an extension to LISPEach agent in AGENT0 has 4 components:a set of capabilities (things the agent can do)a set of initial beliefsa set of initial commitments (things the agent will do)a set of commitment rulesThe key component, which determines how the agent acts, is the commitment rule set

اسلاید 66: 3-66AGENT0Each commitment rule containsa message conditiona mental conditionan actionOn each ‘agent cycle’…The message condition is matched against the messages the agent has receivedThe mental condition is matched against the beliefs of the agentIf the rule fires, then the agent becomes committed to the action (the action gets added to the agent’s commitment set)

اسلاید 67: 3-67AGENT0Actions may beprivate: an internally executed computation, orcommunicative: sending messagesMessages are constrained to be one of three types:“requests” to commit to action“unrequests” to refrain from actions“informs” which pass on information

اسلاید 68: 3-68AGENT0

اسلاید 69: 3-69AGENT0A commitment rule:COMMIT(( agent, REQUEST, DO(time, action)), ;;; msg condition( B,[now, Friend agent] ANDCAN(self, action) ANDNOT [time, CMT(self, anyaction)]), ;;; mental conditionself,DO(time, action))

اسلاید 70: 3-70AGENT0This rule may be paraphrased as follows: if I receive a message from agent which requests me to do action at time, and I believe that:agent is currently a friendI can do the actionAt time, I am not committed to doing any other actionthen commit to doing action at time

اسلاید 71: 3-71AGENT0 and PLACAAGENT0 provides support for multiple agents to cooperate and communicate, and provides basic provision for debugging……it is, however, a prototype, that was designed to illustrate some principles, rather than be a production languageA more refined implementation was developed by Thomas, for her 1993 doctoral thesisHer Planning Communicating Agents (PLACA) language was intended to address one severe drawback to AGENT0: the inability of agents to plan, and communicate requests for action via high-level goalsAgents in PLACA are programmed in much the same way as in AGENT0, in terms of mental change rules

اسلاید 72: 3-72AGENT0 and PLACAAn example mental change rule: (((self ?agent REQUEST (?t (xeroxed ?x))) (AND (CAN-ACHIEVE (?t xeroxed ?x))) (NOT (BEL (*now* shelving))) (NOT (BEL (*now* (vip ?agent))))((ADOPT (INTEND (5pm (xeroxed ?x)))))((?agent self INFORM(*now* (INTEND (5pm (xeroxed ?x)))))))Paraphrased: if someone asks you to xerox something, and you can, and you don’t believe that they’re a VIP, or that you’re supposed to be shelving books, thenadopt the intention to xerox it by 5pm, andinform them of your newly adopted intention

اسلاید 73: 3-73Concurrent METATEMConcurrent METATEM is a multi-agent language in which each agent is programmed by giving it a temporal logic specification of the behavior it should exhibitThese specifications are executed directly in order to generate the behavior of the agentTemporal logic is classical logic augmented by modal operators for describing how the truth of propositions changes over time

اسلاید 74: 3-74Concurrent METATEMFor example. . . important(agents) means “it is now, and will always be true that agents are important” important(ConcurrentMetateM) means “sometime in the future, ConcurrentMetateM will be important” important(Prolog) means “sometime in the past it was true that Prolog was important” (friends(us)) U apologize(you) means “we are not friends until you apologize” apologize(you) means “tomorrow (in the next state), you apologize”.

اسلاید 75: 3-75Concurrent METATEMMetateM is a framework for directly executing temporal logic specificationsThe root of the MetateM concept is Gabbay’s separation theorem: Any arbitrary temporal logic formula can be rewritten in a logically equivalent past  future form.This past  future form can be used as execution rulesA MetateM program is a set of such rulesExecution proceeds by a process of continually matching rules against a “history”, and firing those rules whose antecedents are satisfiedThe instantiated future-time consequents become commitments which must subsequently be satisfied

اسلاید 76: 3-76Concurrent METATEMExecution is thus a process of iteratively generating a model for the formula made up of the program rulesThe future-time parts of instantiated rules represent constraints on this modelAn example MetateM program: the resource controller… First rule ensure that an ‘ask’ is eventually followed by a ‘give’Second rule ensures that only one ‘give’ is ever performed at any one timeThere are algorithms for executing MetateM programs that appear to give reasonable performanceThere is also separated normal form

اسلاید 77: 3-77Concurrent METATEMConcurrentMetateM provides an operational framework through which societies of MetateM processes can operate and communicateIt is based on a new model for concurrency in executable logics: the notion of executing a logical specification to generate individual agent behaviorA ConcurrentMetateM system contains a number of agents (objects), each object has 3 attributes:a namean interfacea MetateM program

اسلاید 78: 3-78Concurrent METATEMAn object’s interface contains two sets:environment predicates — these correspond to messages the object will acceptcomponent predicates — correspond to messages the object may sendFor example, a ‘stack’ object’s interface:stack(pop, push)[popped, stackfull]{pop, push} = environment preds {popped, stackfull} = component predsIf an agent receives a message headed by an environment predicate, it accepts itIf an object satisfies a commitment corresponding to a component predicate, it broadcasts it

اسلاید 79: 3-79Concurrent METATEMTo illustrate the language Concurrent MetateM in more detail, here are some example programs…Snow White has some sweets (resources), which she will give to the Dwarves (resource consumers)She will only give to one dwarf at a timeShe will always eventually give to a dwarf that asksHere is Snow White, written in Concurrent MetateM:

اسلاید 80: 3-80Concurrent METATEMThe dwarf ‘eager’ asks for a sweet initially, and then whenever he has just received one, asks again Some dwarves are even less polite: ‘greedy’ just asks every time

اسلاید 81: 3-81Concurrent METATEMFortunately, some have better manners; ‘courteous’ only asks when ‘eager’ and ‘greedy’ have eaten And finally, ‘shy’ will only ask for a sweet when no-one else has just asked

اسلاید 82: 3-82Concurrent METATEMSummary:an(other) experimental languagevery nice underlying theory……but unfortunately, lacks many desirable features — could not be used in current state to implement ‘full’ systemcurrently prototype only, full version on the way!

16,000 تومان

خرید پاورپوینت توسط کلیه کارت‌های شتاب امکان‌پذیر است و بلافاصله پس از خرید، لینک دانلود پاورپوینت در اختیار شما قرار خواهد گرفت.

در صورت عدم رضایت سفارش برگشت و وجه به حساب شما برگشت داده خواهد شد.

در صورت نیاز با شماره 09353405883 در واتساپ، ایتا و روبیکا تماس بگیرید.

افزودن به سبد خرید