抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
Bayes政策再利用(BPR)は,いくつかの観測信号と訓練された観察モデルに基づくタスク信念を推論することにより,オフラインライブラリからソースポリシーを選択するための一般的な政策移転フレームワークである。本論文では,深層強化学習(DRL)におけるより効率的な政策移転を達成するための改良BPR法を提案した。第1に,ほとんどのBPRアルゴリズムは,限られた情報を含む観測信号としてエピソードリターンを使用し,エピソードの終わりまで得ることができない。代わりに,高速かつより正確なタスク推論のための観測信号として,情報と瞬間である状態遷移サンプルを採用した。第2に,BPRアルゴリズムは,通常,表ベースの観測モデルの確率分布を推定するために,多数のサンプルを必要とし,それは,特に信号として状態遷移サンプルを使用するとき,高価で,維持できないかもしれない。したがって,ターゲットタスクにおいて観測された任意の信号に一般化できる少数のサンプルだけからのソースタスクの適合状態遷移関数に基づくスケーラブルな観測モデルを提案した。さらに,新しい未知タスクに直面したときの負の転送を避けることができる,プラグアンドプレイ方式でスケーラブルな観察モデルを拡張することにより,オフラインモードBPRを連続学習設定に拡張した。実験結果は,著者らの方法がより速く,より効果的な政策移転を一貫して促進することを示した。【JST・京大機械翻訳】