دانلود و نمایش مقالات مرتبط با Optimal controller::صفحه 1
بلافاصله پس از پرداخت دانلود کنید

با سلام خدمت کاربران در صورتی که با خطای سیستم پرداخت بانکی مواجه شدید از طریق کارت به کارت (6037997535328901 بانک ملی ناصر خنجری ) مقاله خود را دریافت کنید (تا مشکل رفع گردد). 

نتیجه جستجو - Optimal controller

تعداد مقالات یافته شده: 5
ردیف عنوان نوع
1 Internal reinforcement adaptive dynamic programming for optimal containment control of unknown continuous-time multi-agent systems
تقویت داخلی برنامه نویسی پویا تطبیقی برای کنترل بهینه مهار سیستم های ناشناخته چند عامل با زمان پیوسته-2020
In this paper, a novel control scheme is developed to solve an optimal containment control problem of unknown continuous-time multi-agent systems. Different from traditional adaptive dynamic programming (ADP) algorithms, this paper proposes an internal reinforcement ADP algorithm (IR-ADP), in which the internal reinforcement signals are added in order to facilitate the learning process. Then a distributed containment control law is designed for each agent with the internal reinforcement signal. The convergence of this IR-ADP algorithm and the stability of the closed-loop multi-agent system are analyzed theoretically. For the implementation of the optimal controllers, three neural networks (NNs), namely internal reinforcement NNs, critic NNs and actor NNs, are utilized to approximate the internal reinforcement signals, the performance indices and optimal control laws, respectively. Finally, some simulation results are provided to demonstrate the effectiveness of the proposed algorithm.
Keywords: Optimal containment control | Multi-agent system | Internal reinforcement learning | Adaptive dynamic programming | Neural network
مقاله انگلیسی
2 A deep reinforcement learning method for managing wind farm uncertainties through energy storage system control and external reserve purchasing
یک روش یادگیری تقویت عمیق برای مدیریت عدم قطعیت نیروگاه های بادی از طریق کنترل سیستم ذخیره انرژی و خرید ذخیره خارجی-2020
In deregulated environment, the wind power producers (WPPs) will face the challenge of how to increase their revenues under uncertainties of wind generation and electricity price. This paper proposes a method based on deep reinforcement learning (DRL) to address this issue. A data-driven controller that directly maps the input observations, i.e., the forecasted wind generation and electricity price, to the control actions of the wind farm, i.e., the charge/discharge schedule of the relevant energy storage system (ESS) and the reserve purchase schedule, is trained according to the method. By the well-trained controller, the influence of the uncertainties of wind power and electricity price on the revenue can be automatically involved and an expected optimal decision can be obtained. Furthermore, a targeted DRL algorithm, i.e., the Rainbow algorithm, is implemented to improve the effectiveness of the controller. Especially, the algorithm can overcome the limitation of the conventional reinforcement learning algorithms that the input states must be discrete, and thus the validity of the control strategy can be significantly improved. Simulation results illustrate that the proposed method can effectively cope with the uncertainties and bring high revenues to the WPPs.
Keywords: Deep reinforcement learning | Energy storage system | Optimal controller | Rainbow | Reserve | Wind power producer
مقاله انگلیسی
3 Multilayer perception based reinforcement learning supervisory control of energy systems with application to a nuclear steam supply system
کنترل نظارت یادگیری تقویتی مبتنی بر پرسپترون چند لایه بر روی سیستم های انرژی با استفاده از سیستم تأمین بخار هسته ای-2020
Energy system optimization is important in strengthening stability, reliability and economy, which is usually given by static linear or nonlinear programming. However, the challenge faced in real-life currently is how to give the optimization by taking naturally existed energy system dynamics into account. To face this challenge, a multi-layer perception (MLP) based reinforcement learning control (RLC) method is proposed for the nonlinear dissipative system coupled by an arbitrary energy system and its local controllers, which can be able to optimize a given performance index dynamically and effectively without the accurate knowledge of system dynamics. This MLP-based RLC is composed of a MLP-based state-observer and an approximated optimal controller. The MLP-based state-observer is given for identification, which converges to a bounded neighborhood of the system dynamics asymptotically. The approximated optimal controller is determined by solving an algebraic Riccati equation with parameters given by the MLP-based state-observer. Based on Lyapunov direct method, it is further proven that the closed-loop is uniformly ultimately bounded stable. Finally, this newly-built MLP-based RLC is applied to the supervisory optimization of thermal power response for a nuclear steam supply system, and simulation results show not only the satisfactory performance but also the influences from the controller parameters to closed-loop responses.
Keywords: Energy system optimization | Reinforcement learning control | Neural network
مقاله انگلیسی
4 Integrated Adaptive Dynamic Programming for Data-driven Optimal Controller Design
برنامه نویسی پویای تطبیقی مجتمع برای طراحی کنترل کننده بهینه داده محور-2020
In this paper a novel integrated adaptive dynamic programming method with an advantage function is developed to solve model-free optimal control problems and improve the control performance. The advantage function is utilized to evaluate the cost resulting from the action (control variables) which does not follow the optimal control policy. The Q function in Q-learning can thus be built from a value function and the advantage function. The control policy is then improved through minimizing the Q function. To employ the proposed algorithm, an integrated multi-layer neural network (INN) is designed for the value function and the control variables. Only one single neural network requires adaption. This avoids the iterative learning of two separate networks in the heuristic dynamic programming-based methods. Simulation for linear and non-linear optimal control problems is studied. Comparing to the optimal solutions resulting from the linear quadratic regulator and dynamic programming (DP), the proposed INN design can lead to closer control performance than the ones with action dependent heuristic dynamic programming (ADHDP). Furthermore INN is applied to optimize the energy management strategy of hybrid electric vehicles for fuel economy. The fuel consumption based on INN is lower than the one from ADHDP and much closer to the optimal results by DP. The result indicates the near fuel-optimality and an effective practical application.
Keywords: Adaptive dynamic programming | reinforcement learning | integrated neural network | advantage function | learning control | energy management strategy
مقاله انگلیسی
5 مدل سازی و کنترل بهینه ی غیرخطی شبکه های ضعیف/جزیره ای با استفاده از دستگاه FACTS در یک رویکرد نظریه بازی
سال انتشار: 2016 - تعداد صفحات فایل pdf انگلیسی: 14 - تعداد صفحات فایل doc فارسی: 53
در این مقاله ، یک مدل غیر خطی گسسته (زمانی) به همراه یک کنترلر ثابت کننده ی بهینه با استفاده از یک تهویه ی کیفیت توان یکنواخت (UPQC) برای شبکه های ضعیف/جزیره ای ارائه شده است. یک کنترلر ثابت کننده ی پیشرفته منافع زیادی برای یک شبکه ی جزیره ای با سایز ، و نیز ریزشبکه ها دارد زیرا سطح انرژی ذخیره شده ی آنها نسبتا پایین است که رابطه ی معکوسی بر پایداری و ثبات آنها دارد، درست برخلاف شبکه هایی با سایز بزرگ. علاوه بر این یک مدل شبکه ای گسسته و کنترلر برای اهداف دیجیتالی ترجیح داده می شود . در اینجا، یک روش کنترلی بهینه ی گسسته ی همیلتون-ژاکوبی-ایزاک در طراحی یک تثبیت کننده ی شبکه ای بهینه، به کار رفته است. در حالی که از UPQC به صورت معمول به منظور بهبود کیفیت توان در سیستم های توزیع و با وجود انرژی های تجدید پذیر استفاده می شود، در اینجا کنترل تثبیت کننده به ولتاژ مجموعه ی UPQC اضافه و اجرا می شود تا نوسانات شبکه ای فراتر از تهویه ی توان UPQC کاهش پیدا کند. در نتیجه می توان از UPQC به منظور تثبیت اینورتر متصل به شبکه (GTI) و یا یک ژنراتور همزمان (SG) با حداقل نیروی کنترلی استفاده کرد. به هنگام کنترل GTI مرتبط با منابع انرژی تجدید پذیر، یک ساختار UPQC کاهش یافته (تقلیل یافته ) ارائه می شود که تنها جبران ساز سری را به کار می برد. پس از آن از یک روش تخمین موفیت آمیز به همراه شبکه های عصبی به منظور تخمین تابع هزینه ی حالت های دینامیکی شبکه، پارامترهای کنترلی UPQC، در یک بازی دو نفره ی مجموع صفر که در آن بازیکنان عبارتند از کنترل UPQC و اختلال در شبکه، استفاده می شود. در نتیجه از تابع هزینه برای دستیابی به کنترل کننده ی بهینه ی غیر خطی که بر روی UPQC اجرا می شود، استفاده می شود. نتایج شبیه سازی حاکی از رفتار تعدیلی موثر کنترل کننده ی غیر خطی ارائه شده ، در کنترل GTI وSG در شبکه های ضعیف و جزیره ای ، می باشد.
اصطلاحات شاخص: کنترل بهینه ی گسسته | دستگاه سیستم انتقال جریان متناوب انعطاف پذیر (FACTS) | همیلتون-ژاکوبی-ایساکس (HJI) | ریزشبکه | ابزار شبکه های عصبی (NNs) | پایداری سیستم توان | ژنراتور همزمان مجازی (VSG).
مقاله ترجمه شده
rss مقالات ترجمه شده rss مقالات انگلیسی rss کتاب های انگلیسی rss مقالات آموزشی
logo-samandehi
بازدید امروز: 7324 :::::::: بازدید دیروز: 0 :::::::: بازدید کل: 7324 :::::::: افراد آنلاین: 84