抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近の平均場ゲーム(MFG)形式は,大規模マルチエージェントシステムにおける逆強化学習(IRL)法の適用を可能にし,大きな母集団の実証行動を説明することができる報酬信号を推論する。MFGに対する既存のIRL法は,母集団の集団行動と平均報酬で定義されたMarkov決定プロセス(MDP)にMFGを縮小して構築される。しかし,本論文は,MFGからMDPへの還元が,完全に協同的設定のためにのみ保持されることを明らかにした。この限界は,非協力的環境を有するMFGに関する既存のIRL方法を無効にする。大規模母集団におけるより一般的な行動を測定するために,MFGのための地上-トルース報酬関数を推論するために個々の行動の使用を研究した。協調と非協調環境の両方を扱うことができるMFGのための最初の専用IRLフレームワークである平均場IRL(MFIRL)を提案した。この理論的に正当化されたフレームワークに基づいて,未知の動力学を持つMFGに対して有効な実用的アルゴリズムを開発した。著者らは,多くのエージェントによる協同的および混合協同的競合シナリオの両方に関するMFIRLを評価した。結果は,MFIRLが報酬回復,サンプル効率,および変化動力学の面でのロバスト性において優れていることを証明した。【JST・京大機械翻訳】