文献
J-GLOBAL ID:201602277255473179   整理番号:16A0653568

視覚および触覚データからの触覚を理解するための深い学習【Powered by NICT】

Deep learning for tactile understanding from visual and haptic data
著者 (4件):
資料名:
巻: 2016  号: ICRA  ページ: 536-543  発行年: 2016年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
物理世界と相互作用するロボットは,物体と表面の細粒触覚理解に有用であろう。さらに,特定タスクのための,ロボットはそれに接触する前物体の触覚特性を知ることが必要である。ロボットのためのより良い触覚理解を可能にするために,視覚的・物理的な相互作用データからの触覚形容詞(例えば,圧縮性または平滑)を持つ表面を分類する方法を提案した。ヒトは典型的に正確に触覚特性を予測し,世界と相互作用する物理的相互作用からの視覚予測とフィードバックを組み合わせた。この認知パターンによりヒントを得て,ここでは純粋に視覚触覚予測モデルを開発し,提案した。純粋視覚モデルは物理的相互作用のない「感じる」ロボットを可能にした。さらに,視覚的・物理的な相互作用信号を用いてより正確な触覚分類を与えることを示した。著者らのモデルは物理的相互作用と目視観察のための学習特徴への統一的アプローチを採用することにより深部ニューラルネットワークにおける最近の進歩を利用している。著者らはほとんどドメイン固有知識を採用しているにもかかわらず,このモデルはまだ人手特徴に基づく方法よりも良い結果を達成した。Copyright 2016 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
音響信号処理  ,  音声処理  ,  図形・画像処理一般 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る