プレプリント
J-GLOBAL ID:202202219576432239   整理番号:22P0285462

オフライン強化学習のための依存データを持つ確率勾配降下【JST・京大機械翻訳】

Stochastic Gradient Descent with Dependent Data for Offline Reinforcement Learning
著者 (2件):
資料名:
発行年: 2022年02月06日  プレプリントサーバーでの情報更新日: 2022年02月06日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
強化学習(RL)において,オフライン学習はデータ収集からの学習を切り離し,探索-開発トレードオフを扱うのに有用であり,多くのアプリケーションにおけるデータ再利用を可能にする。本研究では,2つのオフライン学習タスク:政策評価と政策学習を研究した。政策評価のために,確率的最適化問題としてそれを定式化し,時間依存データによる近似確率勾配降下(aSGD)を用いて解くことができることを示す。損失関数が強く凸であり,速度が割引因子γに依存しないとき,SGDはO(1/t)収束を達成することを示した。この結果は,TD(0)のような近似的に契約的反復を行うアルゴリズムを含むように拡張できる。次に,政策評価アルゴリズムを政策反復アルゴリズムと結合して,最適政策を学習した。ε精度を達成するために,アルゴリズムの複雑性はO(ε ̄-2(1-γ) ̄-5)であり,それはQ学習のような古典的オンラインRLアルゴリズムに結合された複雑性と一致する。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る