文献
J-GLOBAL ID:201802263317548357   整理番号:18A1773195

深度画像に基づく深部畳込みニューラルネットワークを用いた未知物体の把持【JST・京大機械翻訳】

Grasping of Unknown Objects Using Deep Convolutional Neural Networks Based on Depth Images
著者 (4件):
資料名:
巻: 2018  号: ICRA  ページ: 6831-6838  発行年: 2018年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
Deep Convolution Neural Network(DCNNs)を用いた未知オブジェクトのロボット把持に対するデータ駆動,ボトムアップ,深い学習手法を提案した。この手法は,実行中の単一把持解の合成のための唯一の入力としてシーンの深さ画像を使用し,シーンの探索中にロボットの視覚的知覚を適切に描写する。訓練入力は,訓練対象物のレンダリングされた深さ画像を伴う解析的把握プランナにより生成された,事前計算された高品質把握から構成されている。ロボット把持への深い学習技術の適用に関する以前の研究と対照的に,著者らのアプローチは,完全なエンドエフェクタ姿勢を扱うことができ,したがって,カメラの視点方向以外のアプローチ方向を扱うことができる。さらに,この手法は,設計により,ある種の把持装置(すなわち,並列顎グリッパ)に限定されない。著者らは,KITとYCBオブジェクトモデルデータセットを用いたシミュレーションにおけるその力閉鎖性能に関する方法を,また大規模データ把握データベースを用いて評価した。ヒューマノイドロボットARMAR-IIIに関する定性的把握実験における著者らのアプローチの性能を実証した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る