抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,新しい分岐強化学習(Branching RL)モデルを提案し,このモデルに対するRegret最小化(RM)とReward-Free Exploration(RFE)メトリックの両方を調べた。各エピソードの軌跡が単一Hステップ経路である標準RLとは異なり,分岐RLは,遷移が複数の成功者状態に対応して,従ってツリー構造軌道を生成するような状態で複数のベース行動を取るエージェントを可能にする。このモデルは,階層的推薦システムとオンライン広告において重要な応用を見出す。分岐RLのために,著者らは新しいBellman方程式と重要な補助定理,すなわち,分岐値差補題と全分散の分岐法則を確立して,指数的に大きい軌道の下でO(H ̄2)だけによって全分散を結合させた。RMとRFE計量に対して,それぞれ,計算効率の良いアルゴリズムBranchVIとBranchRFEを提案し,ほぼ整合する上限と下限を導いた。著者らの結果は,指数的に大きい軌跡にもかかわらず,問題パラメータにおける多項式のみである。【JST・京大機械翻訳】