抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
多目的強化学習は,多段の意思決定を要する多目的計画におけるパレート最適解を求める方法として位置づけられる。一般に多目的強化学習アルゴリズムの性能は,存在するパレート最適方策をどれだけ多く見つけられるかによって評価される。多目的強化学習は,「報酬ベクトルから各状態のQベクトル集合を学習する」段階と,「各状態のQベクトル集合から最適なQベクトルを抽出する」段階を経てパレート最適方策を獲得する。抽出されたQベクトル系列の要素はすべて同じ方策であること,すなわち,一貫性が求められるが,既存手法は,その抽出段階において,Qベクトルのスカラー化における各状態の重みを一律としているため,一貫した方策が得られるとは限らない。その結果,獲得できないパレート最適方策が生じると考えられる。この問題に対して提案法では,はじめに,各状態の重みを網羅的に探索することによって,各状態の最適なQベクトル集合を抽出する。つぎに,ある方策において初期状態から終端状態までのQベクトルの追跡によって一貫性を確認する。獲得できたパレート最適方策の数を既存手法と提案法で比較することによって,提案法の性能を評価する。(著者抄録)