Presentation is loading. Please wait.

Presentation is loading. Please wait.

Fundamental of genetic Algorithms Part 11

Similar presentations


Presentation on theme: "Fundamental of genetic Algorithms Part 11"— Presentation transcript:

1 Fundamental of genetic Algorithms Part 11
9/18/2018 Fundamental of genetic Algorithms Part 11 مسئله ی بهینه سازی با چند تابع هدف مدرس: سید مهدی وحیدی پور با تشکر از: مجتبی انعامی و حسین شیرازی

2 مسئله ی بهینه سازی با چند تابع هدف
9/18/2018 معرفی کلیات روش های تکاملی بررسي روش SPEA بررسی روش NSGA

3 9/18/2018 معرفی

4 معرفی بهینه سازی توابع مختلف و گاه متضاد به طور همزمان
9/18/2018 بهینه سازی توابع مختلف و گاه متضاد به طور همزمان ترکیب مقادیر توابع هدف مختلف و به دست آوردن یک مقدار برازندگی (Fitness) مسئله به یک تابع تک هدفی تبدیل می شود. بدست آوردن جواب هایی که حداکثر تعداد توابع هدف را بهینه کند مجموعه جواب بهینه ی پارتو (Pareto Optimal Set).

5 معرفی مجموعه جواب بهینه ی پارتو (Pareto Optimal Set)
9/18/2018 مجموعه جواب بهینه ی پارتو (Pareto Optimal Set) مجموعه جواب های مسلط نشدنی در تمام فضای جستجو. نمی توان در این دو مجموعه بین دو جواب مختلف یکی را به دیگری برتری داد. الگوریتم سعی در رسیدن به جواب مختلف بهینه ی پارتو دارد.

6 معرفی دو اصل مهم برای بهینه سازی با چند تابع هدف:
9/18/2018 دو اصل مهم برای بهینه سازی با چند تابع هدف: هدایت مسیر جستجو در جهت رسیدن به منحنی جواب های بهینه پارتو حفظ و تولید جواب های بهینه در طول جمعیت جواب ها

7 معرفی روش های قدیمی دارای اشکالات زیر هستند:
9/18/2018 روش های قدیمی دارای اشکالات زیر هستند: عدم پیدا کردن چندین جواب بهینه در طی یک بار اجرای الگوریتم عدم تضمین برای یافتن جواب های بهینه مختلف و متفاوت نمی توان برای مسائلی با متغیرهای گسسته و دارای چندین جواب بهینه به کار برد

8 بهینه سازی با چند تابع هدف
9/18/2018 بهینه سازی با چند تابع هدف

9 بهینه سازی با چند تابع هدف
9/18/2018 Maximaze y = f(x) = (f1(x), f2(x),…, fk(x)) Subject to e(x) = (e1(x), e2(x),…, em(x)) Where x = (x1, x2,…,xn) X y = (y1, y2,…,yk) Y X: بردار تصمیم گیری با پارامترهای مورد جستجو در مســـئله (Dicision Vector) X: فضای تصمیم گیری (Dicision Space) Y: فضای هدف (Objective Space)

10 بهینه سازی با چند تابع هدف
9/18/2018 مجموعه ممکن(Feasible Set) : مجموعه متغیرهای قابل قبول برای مسئله Xf = {x X | e(x) ≤ 0} محدوده ممکن (Feasible Region): Yf = f(Xf) = Ux Xf {f(x)}

11 بهینه سازی با چند تابع هدف
9/18/2018 u و v دو بردار هدف مربوط به دو بردار تصمیم گیری: u = v iff i {1, 2,…, k} ui = v u ≥ v iff I {1, 2,…, k} ui ≥ vi u > v iff u ≥ v ^ u ≠ v

12 بهینه سازی با چند تابع هدف
9/18/2018 غلبه پارتو: سه حالت وجود دارد: f(a) ≥ f(b) f(b) ≥ f(a) f(a) ≥ f(b) ^ f(b) ≥ f(a) a > b a dominates b iff f(a) > f(b) a ≥ b a weakly dominates b iff f(a) ≥ f(b) a ~ b a is indifferent b iff f(a) ≥ f(b) ^ f(b) ≥ f(a)

13 مجموعه و منحنی جوابهای مسلط نشدنی
9/18/2018 a Xf is Non-Dominated iff S Xf| x S :x>a a is Pareto Optimal iff x is Non-Dominated regarding S = Xf

14 مجموعه و منحنی جواب های مسلط نشدنی
9/18/2018 x1 را بر x2 غالب می دانیم اگر: f1(x1) ≥ f1(x2) for all objective f1(x1) > f1(x2) for at least one تابع P(S): P(S) = {a S, S Xf| a is NonDominated regarding S} P(S) تمام جواب های مسلط نشدنی را نسبت به مجموعه S باز می گرداند. f(P(S)) منحنی مسلط نشدنی نسبت به زیر مجموعه S می باشد. Xp = P(Xf) مجموعی بهینه پارتو است. Yp = f(Xf) منحنی بهینه پارتو است.

15 تفاوت میان مجموعه مسلط نشدنی و بهینه پارتو
9/18/2018 مجموعه جواب مسلط نشدنی در قسمتی از فضای جستجو نسبت به جوابهای دیگر بهینه است، اگر قسمت انتخاب شده برابر کل فضای جستجو باشد مجموعه مسلط نشدنی تبدیل به مجموعه بهینه پارتو می شود.

16 انتساب مقدار برازندگی و مرحله انتخاب
9/18/2018 بر خلاف بهینه سازی با یک تابع هدف، در MOP بین مقادیر هر تابع هدف و مقدار برازندگی تفاوت وجود دارد: روش هایی که توابع هدف را از یکدیگر مستقل فرض می نمایند روش هایی که جهت حفظ پراکندگی در جمعیت جواب ها به کار برده می شوند

17 مسائل اساسی در جستجو با چند تابع هدف
9/18/2018 دو نکته اساسی در الگوریتمهای تکاملی را باید درنظر گرفت تا بتوان روشهای بهینه سازی چندتابعی تکاملی داشت: در الگوریتم تکاملی چگونه مراحل انتخاب و انتساب مقدار fitness انجام گردد تا مجموعه جوابهای بهینه پارتو بدست آید. جهت بدست آوردن جوابهای متنوع و مختلف و جلوگیری از همگرایی زودرس چه تدبیری اندیشیده شود.

18 مراحل انتخاب و انتساب مقدار fitness
9/18/2018 روشها را از دو جنبه بررسی می شود روشهایی که توابع هدف را مستقل از هم فرض کند. روشهایی در جهت حفظ پراکندگی Paper: E. Zitzler, EA for MOP in engineering design,…,1999.

19 روشهایی با فرض توابع هدف مستقل از هم فرض
9/18/2018 انتخاب بر اساس تمرکز کردن روی توابع هدف: به جای ترکیب مقادیر توابع هدف در داخل یک fitness، روی یکی از توابع هدف تمرکز می کنیم و مقدار آن را به عنوان fitness در نظر می گیریم. مثلا اگر قرار باشد N عمل انتخاب انجام شود و K تعداد توابع هدف باشد، N/K عمل انتخاب بر اساس مقدار هر کدام از توابع هدف جداگانه انجام می شود. عمل انتخاب به صورت یک ترتیب مشخص یا تصادفی در نظر گرفتن یک احتمال برای هر کدام از هدف ها Paper: Schaffer, MOP with vector evaluated GA,.., 1985. Paper: Fourman, Compaction of symbolic layout using GA,…, 1985.

20 روشهایی با فرض توابع هدف مستقل از هم فرض
9/18/2018 انتخابگرهای ترکیبی: ترکیب مقادیر توابع هدف طبق یک رابطه خاص، مثلا می توان از مجموع وزن دار مقادیر توابع هدف استفاده کرد. مقدار این مجموع به عنوان fitness در نظر گرفته می شود. انتخاب بر اساس مفهوم پارتو: یک رویه مرتب سازی(رتبه دهی Ranking) تکراری جهت رتبه بندی اعضای جمعیت انجام می پذیرد. رتبه بندی بر اساس کل جمعیت انجام می شود. Book: Goldberg, GA for search, optimization and mechanic learning, 1989.

21 حفظ پراکندگی در جمعیت جواب ها
9/18/2018 پراکندگی جواب ها در داخل فضای هدف بر کارایی الگوریتم بهینه سازی با چند تابع هدف تاثیر می گذارد. بررسی چند روش: Fitness Sharing Crowding ماندگاری

22 Fitness Sharing سعی در نگه داشتن زیر جمعیت هایی در جمعیت جواب دارد
9/18/2018 سعی در نگه داشتن زیر جمعیت هایی در جمعیت جواب دارد به این زیر جمعیت های ثابت نیچ Nich گفته می شود اعضایی در نیچ یک عضو قرار دارند که در همسایگی آن قرار داشته باشند همسایگی با معیار فاصله d(i,j) مشخص می شود otherwise

23 Crowding انتخاب چند جواب از جمعیت جواب ها و اعمال ترکیب و جهش روی آنها
9/18/2018 انتخاب چند جواب از جمعیت جواب ها و اعمال ترکیب و جهش روی آنها بدست آوردن fitness جواب های جدید جایگزین کردن جواب های جدید با جواب هایی در جمعیت اولیه که نزدیکترین مقدار fitness را نسبت به آنها دارند

24 ماندگاری 9/18/2018 بهترین جواب های یافت شده در جمعیت Pt را مستقیما به Pt+1 منتقل میکنیم ممکن است باعث همگرایی زودرس شود در عمل جمعیت جواب های ماندگار در کنار جمعیت جواب های مسئله نگهداری می شود دو روش برای ماندگار کردن جواب های بهینه: مستقیما تعدادی از جواب های بهینه جمعیت Pt به جمعیت Pt+1 کپی شوند یک مجموعه جانبی از جواب ها به نام مجموعه ماندگار Elite or external Setدر کنار جمعیت جواب های مسئله در نظر گرفته شود روشهایی برای کنترل تعداد اعضای این مجموعه باید وجود داشته باشد paper: Parks, et. al. Selective breeding in Multi-objective GA,…, 1998.

25 روش های قدیمی 9/18/2018 در روش های کلاسیک جهت بدست آوردن جواب های بهینه پارتو مقادیر توابع هدف با هم ترکیب شده و یک مقدار جهت ارزیابی جواب ها با یکدیگر ارائه می کنند روش وزن دهی: wi وزن مربوط به هر یک از توابع هدف fi است

26 9/18/2018 روش spea

27 بررسي روش SPEA روش توسط آقاي Zitzler ارائه گرديد
9/18/2018 Paper: Zitzler, An EA for MOP: the strength pareto approch, 1998. روش توسط آقاي Zitzler ارائه گرديد تركيب چندين روش و ارائه ي تكنيك هاي جديد هدف : بدست آوردن مجموعه جواب نزديك مجموعه جواب بهينه ي پارتو

28 بررسي روش SPEA شباهت روش با روش هاي قبل :
9/18/2018 شباهت روش با روش هاي قبل : استفاده از مفهوم غلبه پارتو براي انتساب مقدار اسكالر به عنوان ارزياب به عناصر جمعيت استفاده از جمعيت جانبي در كنار جمعيت جواب هاي مسئله ( ماندگاري ) جلوگيري از بزرگ شدن مجموعه ي جواب هاي ماندگار بوسيله ي خوشه بندي ( Clustering )

29 بررسي روش SPEA تفاوت با روش هاي قبل :
9/18/2018 تفاوت با روش هاي قبل : محاسبه مقدار اسكالر ارزياب برای هر عضو جمعیت بر اساس اعضاي جمعيت جانبي موجود در نظر گرفتن جواب هاي بهينه جمعيت جانبي هنگام عمل انتخاب ارائه تعريف جديدي از مفهوم نيچ به منظور حفظ پراكندگي

30 روند کلی الگوریتم SPEA 9/18/2018

31 بررسي روش SPEA ظاهرشدن مجموعه جواب خارجي در هر بار اجراي حلقه ي اصلي
خوشه بندي درصورتي كه تعداد عناصر مجموعه جانبی از يك تعداد مشخص شده بيشتر شده باشد ارزيابي جداگانه مجموعه هاي P و عمل كردن عملگر انتخاب بر روي مجموعه قرار گرفتن تعداد مناسبي عضو در حافظه كمكي به نام Mating pool ساختن جمعيت جديد بوسيله جهش و تركيب 9/18/2018

32 انتساب مقدار ارزياب دوقسمت اصلي تابع ارزياب : ارزيابي مجموعه در
9/18/2018 دوقسمت اصلي تابع ارزياب : ارزيابي مجموعه در ارزيابي اعضاي موجود در مجموعه P

33 انتساب مقدار ارزياب 9/18/2018

34 انتساب مقدار ارزياب هدف از بهينه سازي :
9/18/2018 هدف از بهينه سازي : غلبه بيشتر هر عضو از مجموعه جانبي بر تعداد بيشتري از اعضاي جمعيت يكدستي تعداد جواب در نواحي مختلف فضاي جواب

35 مفهوم نیچ و ارزیاب به هرکدام از مستطیلها نیچ گفته میشود
9/18/2018 به هرکدام از مستطیلها نیچ گفته میشود وقتی تعداد عناصر داخل نیچ افزایش می یابد (در مثال از یکی به سه) مقدار برازندگی آن عناصر بدترشده و نیچ های دیگر بهتر می شوند. تفاوت اصلي با روش Fitness Sharing : عدم دخالت معيار فاصله در اين روش معيار اصلي غلبه پارتو همكاري و تعامل جمعيت ها در الگوريتم هاي تكاملي باعث افزايش سرعت رسيدن به جواب مي شود

36 خوشه بندي كوچكتر كردن مجموعه به كمك خوشه بنديClustering :
9/18/2018 كوچكتر كردن مجموعه به كمك خوشه بنديClustering : تعداد مجموعه بهينه پارتو مي تواند از حد معيني بگذرد نشان دادن تمام جواب هاي بهينه بيهوده است حجم بالاي موجب كم شدن سرعت جستجو مي شود.(باعث کمتر شدن اهمیت عملگر انتخاب) اگر اعضای داخل مجموعه جانبی به طور نا همگون پخش شده باشد روند جستجو به قسمتی از فضا علاقه بیشتری نشان می دهد.

37 9/18/2018 الگوریتم خوشه بندی

38 9/18/2018 الگوریتم SPEA

39 9/18/2018 الگوریتم SPEA

40 9/18/2018 بهينه سازي به روش NSGA روش بهينه سازي تكاملي

41 بهينه سازي به روش NSGA ايده اصلي بوسيله ي Deb و Srinivas ارائه كردند
9/18/2018 paper: Deb, EA for MOP in engineering design,…, 1999. ايده اصلي بوسيله ي Deb و Srinivas ارائه كردند مدل انتخابي رتبه بندي جهت انتخاب جواب هاي بهينه از جمعيت جاري استفاده مي شود تفاوت NSGA و ژنتيك ساده در عملگر انتخاب است جمعيت جواب ها بر اساس سطح مفهوم غلبه مرتب مي شود. چون عناصر موجود در یک لبه مرتبه یکسان دارند برای انتساب ارزیاب از روش اشتراک استفاده می کند

42 روند کلی انتساب ارزیاب در NSGA
9/18/2018

43 روند الگوریتم اشتراک ارزیاب برای اعضای یک Front
9/18/2018 روند الگوریتم اشتراک ارزیاب برای اعضای یک Front


Download ppt "Fundamental of genetic Algorithms Part 11"

Similar presentations


Ads by Google