プレプリント
J-GLOBAL ID:202202213480942700   整理番号:22P0302635

ロボット制御の視覚ベース深層強化学習における関係誘導Biasのためのグラフニューラルネットワーク【JST・京大機械翻訳】

Graph Neural Networks for Relational Inductive Bias in Vision-based Deep Reinforcement Learning of Robot Control
著者 (4件):
資料名:
発行年: 2022年03月11日  プレプリントサーバーでの情報更新日: 2022年03月11日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最先端の強化学習アルゴリズムは,数値状態ベクトルまたは画像のいずれかからポリシーを主に学習する。両手法は,一般的に,ロボットアプリケーションにおいて一般的であり,もし活用されるならば,学習を有利にできる,タスクの構造的知識を考慮していない。本研究では,ロボット操作のための効率的な位置制御ポリシーを学習するために,関係誘導バイアスと視覚フィードバックを組み合わせたニューラルネットワークアーキテクチャを導入した。マニピュレータの物理的構造をモデル化し,画像符号化ネットワークにより生成された視覚シーンの低次元記述とロボットの内部状態を組み合わせるグラフ表現を導いた。これに基づき,強化学習で訓練されたグラフニューラルネットワークは,ロボットを制御するために関節速度を予測する。さらに,教師つき学習を用いたポリシーから別々に画像符号器を訓練する非対称手法を導入した。実験結果は,幾何学的に単純な2D環境における2-DoF平面ロボットのために,視覚シーンの学習された表現が,政策の品質とサンプル効率を損なうことなく,到達目標の明示的座標へのアクセスを置き換えることができることを証明した。さらに,視覚的に現実的な3D環境における6-DoFロボットアームのサンプル効率を改善するモデルの能力を示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
ロボットの運動・制御  ,  人工知能 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る