دانلود ترجمه مقاله مدیریت انرژی ریزشبکه با در نظر گرفتن تلفات غیرخطی باتری
عنوان فارسی |
مدیریت انرژی یک ریزشبکه با در نظر گرفتن تلفات غیرخطی باتری ها از طریق یادگیری تقویتی عمیق |
عنوان انگلیسی |
Energy management of a microgrid considering nonlinear losses in batteries through Deep Reinforcement Learning |
کلمات کلیدی : |
  یادگیری تقویتی عمیق؛ سیستم مدیریت انرژی؛ صرفه جویی انرژی؛ ریزشبکه مجزا؛ مدل غیرخطی باتری |
درسهای مرتبط | سیستم های توزیع انرژی |
تعداد صفحات مقاله انگلیسی : 12 | نشریه : ELSEVIER |
سال انتشار : 2024 | تعداد رفرنس مقاله : 47 |
فرمت مقاله انگلیسی : PDF | نوع مقاله : ISI |
پاورپوینت : ندارد | وضعیت ترجمه مقاله : انجام نشده است. |
1. مقدمه 2. مدل عملکرد باتری 3. EMS در یک ریزشبکه با استفاده از DRL 4. گنجاندن سیستم کنترل در مدل 5. مقایسه عملکرد بین مدل باتری Li-Ion خطی و غیرخطی 6. نتیجه گیری
چکیده – استقرار گسترده ریزشبکه ها میتواند نقش مهمی در تحقق کاهش کربن بخش برق در جریان گذار انرژی داشته باشد. عملکرد موثر این ریزشبکه ها نیازمند یک سیستم مدیریت انرژی (EMS) است که نقاط تنظیم کنترل را برای تمام اجزای قابل کنترل تعیین میکند. EMSها میتوانند به عنوان مسائل بهینهسازی کلاسیک یا به عنوان فرایندهای تصمیمگیری مارکوف قابل مشاهده جزئی (POMDPها) فرموله شوند. اخیراً، الگوریتمهای یادگیری تقویتی عمیق (DRL) برای حل مورد دوم به کار گرفته شدهاند و در سالهای اخیر محبوبیت یافتهاند. از آنجایی که روشهای DRL نوید میدهند که به طور موثری با دینامیک غیرخطی برخورد کنند، این مقاله عملکرد الگوریتم TD3 (Twin-Delayed Deep Deterministic Policy Gradient) را بررسی میکند که یک روش پیشرفته در DRL است، برای EMS یک ریزشبکه که شامل تلفات غیرخطی باتری میشود. علاوه بر این، تعامل کلاسیک EMS با ریزشبکه با اصلاح رفتار سیستم کنترل زیربنایی بهبود مییابد تا نتایج قابل اعتمادی به دست آید. عملکرد این رویکرد جدید بر روی دو ریزشبکه متمایز - یک ریزشبکه مسکونی و یک ریزشبکه مقیاس بزرگتر - با نتیجه رضایتبخش فراتر از کاهش هزینههای عملیاتی آزمایش شده است. یافتهها پتانسیل ذاتی الگوریتمهای مبتنی بر DRL را برای بهبود مدیریت انرژی و هدایت سیستمهای برق کارآمدتر نشان میدهند.
ترجمه مقاله مرتبط با این مقاله | دانلود ترجمه مقاله مدیریت انرژی ریزشبکه در حالت های متصل به شبکه و مستقل |
The massive deployment of microgrids could play a significant role in achieving decarbonization of the electric sector amid the ongoing energy transition. The effective operation of these microgrids requires an Energy Management System (EMS), which establishes control set-points for all dispatchable components. EMSs can be formulated as classical optimization problems or as Partially-Observable Markov Decision Processes (POMDPs). Recently, Deep Reinforcement Learning (DRL) algorithms have been employed to solve the latter, gaining popularity in recent years. Since DRL methods promise to deal effectively with nonlinear dynamics, this paper examines the Twin-Delayed Deep Deterministic Policy Gradient (TD3) performance – a state-of-the-art method in DRL – for the EMS of a microgrid that includes nonlinear battery losses. Furthermore, the classical EMS-microgrid interaction is improved by refining the behavior of the underlying control system to obtain reliable results. The performance of this novel approach has been tested on two distinct microgrids – a residential one and a larger-scale grid – with a satisfactory outcome beyond reducing operational costs. Findings demonstrate the intrinsic potential of DRL-based algorithms for enhancing energy management and driving more efficient power systems.
دیدگاهها
هیچ دیدگاهی برای این محصول نوشته نشده است.