文献
J-GLOBAL ID:202102243707121745   整理番号:21A2834356

巡回時間依存Markov過程による強化学習アプローチを用いた電池エネルギー貯蔵制御【JST・京大機械翻訳】

Battery energy storage control using a reinforcement learning approach with cyclic time-dependent Markov process
著者 (3件):
資料名:
巻: 134  ページ: Null  発行年: 2022年 
JST資料番号: A0596B  ISSN: 0142-0615  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
不安定な顧客需要,電力価格,および天候に応答するための効率的なエネルギー管理システム運用のスケジューリングは,制御システムの複雑性を増加させ,柔軟でコスト効率の良い制御政策を必要とする。本研究は,グリッドに接続された住宅に集中した強化学習モデルに基づくインテリジェントでリアルタイムの電池エネルギー貯蔵制御を開発し,太陽電池パネルと電池エネルギー貯蔵システムを備えた。強化学習性能は,根底にあるMarkov決定プロセスの設計に大きく依存しているので,サイクル時間依存Markovプロセスは,需要,電力価格,および太陽エネルギーにおける既存の日常循環パターンを捕捉するために,一意的に設計されている。MarkovプロセスはQ学習アルゴリズムでうまく使用され,より効率的な電池エネルギー制御と節約電力コストをもたらす。提案したQ学習アルゴリズムを,決定論的等価解と1ステップロールアウトアルゴリズムのベンチマークモデルと比較した。数値的実験は,需要,太陽エネルギー,価格,および電池エネルギーレベルが20に調整したとき,1カ月の電力コストに対する決定論的等価解とQ学習アプローチの間のギャップが,住宅27で7.99%から3.63%,住宅387で6.91%から3.26%に減少したことを示した。したがって,提案したQ学習のより良い性能を,1ステップロールアウトアルゴリズムと比較して実証した。さらに,適応Q学習性能と計算時間に対する状態空間パラメータの離散サイズの影響を調べた。電力価格の変動は他のパラメータよりもQ学習アルゴリズムの性能に大きく影響する。Copyright 2021 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (4件):
分類
JSTが定めた文献の分類名称とコードです
太陽光発電  ,  二次電池  ,  電力系統一般  ,  自然エネルギー一般 

前のページに戻る