抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
(Jaksch et al.,2010)に導入された上位信頼強化学習(UCRL2)アルゴリズムは,平均報酬基準の下で未知の離散Markov決定プロセスにおけるレグレット最小化を実行するための一般的な方法である。その優秀で一般的な理論的regret保証にもかかわらず,このアルゴリズムとその変形は,学習が行われる前に,単純な環境における数値実験が長い燃焼相を示すので,これまでほとんど理論が残っている。実用的効率の追求において,UCRL2のラインに従ってUCRL3を提示したが,2つの重要な修正で,まず,最先端の時間均一濃度不等式を用いて,各状態行動対に対する報酬と(成分ごとの)遷移分布に関する信頼集合を計算した。さらに,厳密な探索のために,各遷移分布のサポートの適応型計算を用い,次に,低確率遷移を無視することにより,縮小サポートによる分布を最適化するため,UCRL2の拡張値反復手順を再考することを可能にし,一方,近楽観性を確実に保証する。標準環境における数値実験を通して,この方法を縮小するのは,UCRL2とその変異体と比較して,実質的な数値改良をもたらすことを実証した。理論的側面に関して,これらの重要な修正は,UCRL2に関して改良するUCRL3のためのレグレット結合を導くことを可能にして,それは,分散意識濃度限界によって,局所直径と局所有効サポートの概念を,初めて示した。【JST・京大機械翻訳】