抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
物体を把持する能力は,多くのロボット操作タスクを可能にする不可欠なスキルである。最近の研究では,シミュレーションデータセットから開始して物体把持のための点雲ベース法を研究し,実世界シナリオにおいて有望な性能を示した。それにもかかわらず,それらの多くは,把持候補を生成するためのアドホック幾何学的発見的方法に頼り,訓練中に観察されるそれらに関して,著しく異なる形状を持つオブジェクトに一般化できない。いくつかのアプローチは,意味的グローバル情報を無視する間,複雑な多段学習戦略と局所近傍特徴抽出を利用する。さらに,それらは訓練サンプルの数および推論に必要な時間に関して非効率的である。本論文では,オブジェクトの3D部分ビューから出発する6-DOF並列ジャワ把持を生成するエンドツーエンド学習ソリューションを提案した。Grasp(L2G)法に対する学習は,局所および大域的手がかりを利用する特徴符号器を用いて,可視接触点を同定するために,微分可能なサンプリング戦略を組み合わせる新しい手順を通して,入力点雲から情報を収集する。全体として,L2Gは,接触点サンプリング,把持回帰,および把握分類を最適化することによって,多様な把持集合を生成するマルチタスク目標によって導かれる。徹底的な実験解析により,L2Gの有効性とロバスト性と一般化能力を示す。【JST・京大機械翻訳】