دانلود ترجمه مقاله بهینه ساز شیر مورچه
عنوان فارسی |
بهینه ساز شیر مورچه |
عنوان انگلیسی |
The Ant Lion Optimizer |
کلمات کلیدی : |
  بهینه سازی؛ معیار؛ بهینه سازی مقید؛ بهینه سازی ازدحام ذرات؛ الگوریتم؛ الگوریتم ابتکاری؛ الگوریتم ژنتیک |
درسهای مرتبط | الگوریتم های بهینه سازی |
تعداد صفحات مقاله انگلیسی : 19 | نشریه : ELSEVIER |
سال انتشار : 2015 | تعداد رفرنس مقاله : 87 |
فرمت مقاله انگلیسی : PDF | نوع مقاله : ISI |
پاورپوینت : ندارد | وضعیت ترجمه مقاله : انجام نشده است. |
1. مقدمه 2. بهینه ساز شیر مورچه 3. نتایج و بحث و بررسی 4. بهینه سازی مقید با استفاده از الگوریتم ALO 5. طراحی پیشرانه کشتی با استفاده از ALO 6. نتیجه گیری
مقدمه: در سالهای اخیر، الگوریتم های فرا ابتکاری به عنوان فنون اصلی برای بدست آوردن جواب های بهینه مسائل بهینه سازی طراحی مهندسی واقعی، مورد استفاده قرار گرفته اند [1-3]. چنین الگوریتم هایی عمدتاً از عملگرهای احتمالاتی [4] بهره می گیرند که آنها را از رویکردهای قطعیتی متمایز کرده است. یک الگوریتم قطعیتی [5-7]، به طور مطمئن و قطعی پاسخ یکسانی برای یک مسئله معین با نقطه آغازین اولیه مشابه، تعیین می کند. اما، این رفتار باعث گیر افتادن در بهینه های محلی می شود که این یک عیب برای فنون بهینه سازی قطعیتی محسوب می شود [8]. گیر افتادن در بهینه های محلی به معنای گیر افتادن یک الگوریتم در جواب های محلی و در نتیجه ناتوانی در یافتن بهینه سراسری واقعی است. از آنجایی که مسائل حقیقی تعداد جواب های محلی فوق العاده بزرگ دارند، الگوریتم های قطعیتی، قابلیت اطمینان خود در یافتن بهینه سراسری را از دست می دهند. الگوریتم های بهینه سازی احتمالاتی (فرا ابتکاری) [9] به معنای دسته ای از الگوریتم ها با عملگرهای احتمالاتی شامل الگوریتم های تکاملی می باشند [10]. تصادفی بودن، مشخصه اصلی الگوریتم های احتمالاتی می باشد [11]. این بدان معناست که هنگام جستجوی بهینه سراسری در فضاهای جستجو، از عملگرهای تصادفی استفاده می کنند. با اینکه ماهیت تصادفی چنین فنونی ممکن است آنها را در بدست آوردن یک جواب مشابه در هر اجرا، غیرمطمئن سازد، اما قادر به اجتناب از جواب های محلی به نحو بسیار آسانتر از الگوریتم های قطعیتی می باشند. رفتار احتمالاتی همچنین باعث بدست آمدن جوابه ای مختلف برای یک مسئله معین در هر اجرا می شود [12].
Introduction: In recent years metaheuristic algorithms have been used as primary techniques for obtaining the optimal solutions of real engineering design optimization problems [1–3]. Such algorithms mostly benefit from stochastic operators [4] that make them distinct from deterministic approaches. A deterministic algorithm [5–7] reliably determines the same answer for a given problem with a similar initial starting point. However, this behaviour results in local optima entrapment, which can be considered as a disadvantage for deterministic optimization techniques [8]. Local optima stagnation refers to the entrapment of an algorithm in local solutions and consequently failure in finding the true global optimum. Since real problems have extremely large numbers of local solutions, deterministic algorithms lose their reliability in finding the global optimum. Stochastic optimization (metaheuristic) algorithms [9] refer to the family of algorithms with stochastic operators including evolutionary algorithms [10]. Randomness is the main characteristic of stochastic algorithms [11]. This means that they utilize random operators when seeking for global optima in search spaces. Although the randomised nature of such techniques might make them unreliable in obtaining a similar solution in each run, they are able to avoid local solutions much easier than deterministic algorithms. The stochastic behaviour also results in obtaining different solutions for a given problem in each run [12].
دیدگاهها
هیچ دیدگاهی برای این محصول نوشته نشده است.