抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
強化学習は,通常,優れた特性を有する数値報酬を利用するが,また,欠点と困難を伴う。順序尺度(通常報酬)に関する報酬の使用は,近年多くの注目を受けてきた数値報酬の代替である。本論文では,順序報酬の使用に強化学習問題を適用するための一般的アプローチを示し,動機付けた。著者らは,Q学習の用例によって,一般的強化学習アルゴリズムを順序変化に変換する方法を示し,そして,Ordinal Deep Q-Networkを導入して,それは,順序報酬に深い強化学習を適応させた。さらに,OpenAI Gymフレームワークによって提供される問題に関する評価を行い,著者らの順序バリアントが,多くの問題に対する数値変動に匹敵する性能を示した。また,著者らは,著者らの順序変異体が,より少ない工学およびより簡単な設計報酬信号を有する問題のためにより良い結果を生み出すことができるという最初の証拠を与えた。【JST・京大機械翻訳】