文献
J-GLOBAL ID:202002221842400187   整理番号:20A0909889

深層強化学習に基づく複数ロボットの運動協調【JST・京大機械翻訳】

Motion Coordination of Multiple Robots Based on Deep Reinforcement Learning
著者 (6件):
資料名:
巻: 2019  号: ICTAI  ページ: 955-962  発行年: 2019年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
マルチロボット運動協調は,衝突を避けるために協調機構を通して各々のロボットの動作を制御する逐次決定問題であり,それらのそれぞれの目標に達する。この問題はMarkov決定プロセスと見なすことができる。したがって,運動経路の決定的条件の下で,著者らは,運動協調問題を解決するために,深い強化学習(DRL)を適用する試みを行った。本論文では,この問題をRL法により解決するために,異なる経路間の衝突関係を表現するための経路チェッカー盤図(PCD)を設計し,エージェントが作用するときに衝突が発生するかどうかを決定した。技術的に,著者らは状態,行動と報酬機能を設計した。しかし,従来の深いQネットワーク(DQN)アルゴリズムは,目標値の状態作用値と高い近似誤差分散の過大評価の問題を持っている。運動協調問題シナリオに適合させるために,著者らはさらに,二重DQN(DDQN)に基づく新しいアルゴリズム多損失二重DQN(MLDDQN)を提案した。それは以前に学習した異なるターゲットネットワークの損失の加重和を最小化した。このアルゴリズムの性能を異なる運動協調タスクにより評価した。結果は,著者らのMLDDQN法が,オリジナルのDDQNアルゴリズムと比較して,成功率,成功段階および訓練プロセスの安定性に関して著しい改善をもたらすことを示唆した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る