文献
J-GLOBAL ID:201702269963006902   整理番号:17A1207218

マルチエージェント連携における異なる目標選択による強化学習手法間の比較

Comparison Between Reinforcement Learning Methods with Differnt Goal Selections in Multi-Agent Cooperation
著者 (2件):
資料名:
巻: 21  号:ページ: 917-929  発行年: 2017年09月20日 
JST資料番号: F1398A  ISSN: 1343-0130  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 日本 (JPN)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究では異なった修正付き強化学習手法を比較する事によって零コミュニケーション,マルチエージェント連携用の重要な因子を扱った。比較用に用いた2つの学習手法をマルチエージェント連携作業用の異なった目標選択に割当てた。最初の手法は利益最小化強化学習(PMRL)と呼ばれる。それはエージェントに最遠目標に如何に到達するかを学習する事を強いて,それから,その目標に一番近いエージェントがその目標に向かう。二番目の手法は従順行動強化学習(YARL)と呼ばれる。それはエージェントにQ-学習プロセスを通して学習する事を強いて,もしエージェントが衝突を持ったならば,目標に一番近いエージェントが次に近い目標に到達ために学習する。2つの手法を比較するために,筆者らは以下の迷路因子を調節する事によって実験を設計した。(1)開始点及び目標の位置。(2)エージェントの個数。(3)迷路のサイズ。エージェント協調作業用の迷路問題上で実施した集中的シミュレーションはもし迷路のサイズ及びエージェントの個数が変化したとしてさえも,2つの手法がエージェントが協調挙動を開示する事を成功裡に可能化する事を明らかにした。PMRLメカニズムが常にエージェントが協調挙動を学習する事を可能化する一方,YARLメカニズムはエージェントに少数の学習反復上で協調挙動を学習させる。零コミュニケーション,マルチエージェント協調において,衝突を持つエージェントのみが互いに協調する事が重要である。(翻訳著者抄録)
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  計算機システム開発 
引用文献 (12件):
もっと見る
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る