抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
マルチエージェントシステム(MAS)は,シングルエージェントでのモデル化が困難な,複数のエージェントが干渉しあう環境をモデル化でき,様々な実世界の問題に応用できる.しかし,エージェント間の相互作用によって環境は複雑で予測不可能となり,特に協調的な戦略を設計することは困難である.そこで本研究では,MASの中でも分散協調探索問題と呼ばれる一般的な問題を扱い,エージェントがそれぞれ独立したDeep Q-Network(DQN)で政策を学習するとき,全体で創発される行動戦略を調査する.また,エージェントは環境から与えられる情報が制限されるときに,どのような行動戦略によって情報不足を回避するかを調査する.実験の結果,情報制限により報酬が獲得しづらく,学習が困難な環境ほどエージェント間で強い分業が発生したことを報告する.また,分業時には各エージェントの担当領域で他エージェントからの干渉が少なく,シングルエージェントと類似した環境として扱えることがわかった.そのため,特にシングルエージェントの環境で有効活用できると考えられる記憶情報を利用することで,報酬獲得効率が向上したことを報告する.(著者抄録)