抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
模倣学習は,行動を直接プログラムし,最適制御のためのコストを指定するのが困難なロボットタスクに適している。本研究では,報酬関数(および対応ポリシー)を学習する方法を提案し,エキスパート状態密度を整合させた。主な結果は,エージェントとエキスパート状態分布w.r.t.報酬パラメータの間の任意のf-発散の解析的勾配である。導出した勾配に基づいて,勾配降下によりエキスパート密度から静止報酬関数を復元するアルゴリズムf-IRLを示した。f-IRLは,手で設計されたターゲット状態密度から,またはエキスパート観察を通して暗黙的に行動を学習できることを示した。提案手法は,サンプル効率およびIRLベンチマーク上のエキスパート軌跡の必要な数に関して,敵対的模倣学習法より優れている。さらに,回復報酬関数を用いて,下流タスクを迅速に解くことができ,また,ハードから探索タスクへのその有用性を経験的に実証し,また,動力学における変化を横断して行動転送を行うことを示した。【JST・京大機械翻訳】