文献
J-GLOBAL ID:202002247566441120   整理番号:20A2144691

PointNet++把持:スパースポイントクラウドからのエンドツーエンド空間把握生成アルゴリズムの学習【JST・京大機械翻訳】

PointNet++ Grasping: Learning An End-to-end Spatial Grasp Generation Algorithm from Sparse Point Clouds
著者 (4件):
資料名:
巻: 2020  号: ICRA  ページ: 3619-3625  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
非構造化環境におけるロボットマニピュレーションには,新しいオブジェクトの把握が重要である。ほとんどの現在の研究は,深い学習を用いた局所特徴抽出器と組み合わせた把持候補を得るための把握サンプリングプロセスを必要とする。このパイプラインは,特に把持点がボウルのエッジのようなまばらである場合,時間費用がかかる。本論文では,全ての把持の姿勢,カテゴリーおよびスコア(同等性)を直接予測するためのエンドツーエンドアプローチを提案した。それは,入力として全体のスパースポイントクラウドを取り入れて,サンプリングまたは探索プロセスを必要としない。さらに,マルチオブジェクトシーンの訓練データを生成するために,著者らはFerrari Cannyメトリックに基づく高速マルチオブジェクト把持検出アルゴリズムを提案した。単一オブジェクトデータセット(YCBオブジェクトセットからの79オブジェクト,23.7k把持)とマルチオブジェクトデータセット(アノテーションとマスクを持つ20kポイントクラウド)を生成した。マルチマスク損失と結合したポイントネット++ベースのネットワークを,異なる訓練ポイントを扱うために導入した。このネットワークの全重量サイズは,GeForce 840M GPUを用いた全予測プロセスに対して約102msである約11.6Mである。著者らの実験は,著者らの作業が71.43%の成功率と91.60%の完了率を達成して,それは現在の最先端の研究より良好であることを示した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る