抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
スパース報酬の問題は,現代の強化学習における最も困難な課題の1つである。階層的強化学習(HRL)は,時間的に拡張された行動のセット,あるいはその各々がそれ自身のサブゴナルを持つオプションを用いることにより,この問題に取り組む。これらのサブゴールは,通常,特定のタスクのために手作業される。ここでは,視覚ドメインに広い応用性を持つ一般的クラスのサブゴナルを導入した。著者らのアプローチ(「補助タスクを用いた研究」)の下では,環境の側面を制御する能力が本質的に有用なスキルであるという仮説である。エンドツーエンド階層強化学習システムにそのようなサブゴナルを組み込み,Atariスイートから多数のゲーム上で提案アルゴリズムの2つの変異体を試験した。著者らは,最も硬いゲームの1つ,すなわち,スパース報酬を扱う能力が鍵である,の1つにおける著者らのアプローチの利点を強調する。このエージェントは,このゲームにおいて現在の最先端のHRLエージェントよりも数倍速く学習し,類似のレベルの性能に達する。UPDATE 22/11/17:著者らは,単純な形状報酬,すなわち外因性報酬+特徴制御固有報酬を有する標準A3Cエージェントが,Montezuma Revengeにおける著者らのエージェントに匹敵する性能を有することを見出した。実施した新しい実験に照らして,著者らのHRL手法の利点は,階層的成分による抽象化スキルの探索および再利用能力よりもむしろ,固有報酬から有用な特徴を学習する能力により,より起因できる。これは,結果に関する新しい結論を導いた。【JST・京大機械翻訳】