文献
J-GLOBAL ID:202102241994602006   整理番号:21A1390420

マルチエージェント深層強化学習における独立Q学習のための同期nステップ法【JST・京大機械翻訳】

Synchronous n-Step Method for Independent Q-Learning in Multi-Agent Deep Reinforcement Learning
著者 (6件):
資料名:
巻: 2019  号: SmartWorld/SCALCOM/UIC/ATC/CBDCom/IOP/SCI  ページ: 460-467  発行年: 2019年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
経験再生メモリ(ERM)は,政策ネットワークを訓練し,オフポリシー深層強化学習におけるデータ利用を改善するために,脱相関データをサンプリングするための有効なツールである。しかしながら,ERMは,その保存経験が,IQLのエージェントが並列にそれらのポリシーを更新するので,マルチエージェント深層強化学習(MA-DRL)における独立Q学習(IQL)の訓練プロセスの変動を導入する。訓練におけるデータの潜在力を広範囲に探索しながら,obsolte経験の影響を減らすことは,IQLにおいて大きな課題を提起する。したがって,著者らは,完全に ob解の経験を除くが,低いデータ利用問題に悩まされる同期nステップ法を提案した。次に,著者らは,obsolte経験の影響を減らし,データ利用を強化することの間のバランスを作るERMヘルプ同期nステップ法を提案した。著者らは,これらの方法をレンズ深い強化学習に適用し,LSnDQNおよびLESnDQNアルゴリズムを提案し,次に,協調マルチエージェントオブジェクト輸送問題の幾つかの拡張変動において試験した。結果は,LSnDQNが,より少ない反復による訓練に関して大きな利点を有するが,LDQN上の計算時間に関して利点がなく,一方,LESnDQNは,LDQNとLSnDQNの両方に関して計算時間に関して大きな利点を有することを示した。Copyright 2021 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る