文献
J-GLOBAL ID:202202213141110813   整理番号:22A0841909

時間に敏感な二重分解能学習ネットワークに基づく視覚相互作用力推定【JST・京大機械翻訳】

Visual Interaction Force Estimation Based on Time-Sensitive Dual-Resolution Learning Network
著者 (7件):
資料名:
巻: 2022  ページ: Null  発行年: 2022年 
JST資料番号: U7792A  ISSN: 1687-725X  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: イギリス (GBR)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
触覚力フィードバックは,周囲の環境を理解するために人間にとって重要な認識方法である。それはリアルタイムで触覚力を推定でき,適切なフィードバックを提供する。それは,ロボット支援最小侵襲性手術,対話型触覚ロボット,および他の応用分野のための重要な研究価値を持っている。しかしながら,既存の非接触視覚電力推定法の大部分は,LSTMと組み合わせた従来の機械学習または2D/3D CNNを用いて実行される。そのような方法は,画像の連続多重フレームの文脈時空的相互作用意味情報を完全に抽出するのが困難であり,それらの性能は制限される。この目的のために,本論文は,正確な非接触視覚力予測を達成するために,時間感受性二重解像度学習ネットワークベース力推定モデルを提案した。最初に,カメラで捕捉されたビデオを走行するロボットに関する連続フレーム正規化処理を実行し,ハイブリッドデータ増強を用いてデータ多様性を改善した。第二に,深い意味的相互作用モデルを,時間感受性二重解像度学習ネットワークに基づいて構築して,それは連続的マルチフレーム画像の深い時空的意味相互作用情報を自動的に抽出するために使用する。最後に,相互作用力の効率的推定を実現するための簡易予測モデルを構築した。大規模ロボットハンドインタラクションデータセットに基づく結果は,著者らの方法がロボットハンドの相互作用力をより正確に,より速く推定できることを示した。平均予測MSEは0.0009Nに達し,[数式:原文を参照]は0.9833に達し,単一画像の平均推論時間は6.5532msであった。加えて,著者らの方法は,種々の環境およびパラメータ設定の下で良い予測一般化性能を有した。Copyright 2022 Feilu Wang et al. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (5件):
分類
JSTが定めた文献の分類名称とコードです
ロボットの運動・制御  ,  表示機器  ,  人間機械系  ,  ロボットの設計・製造・構造要素  ,  筋骨格系・皮膚モデル 
引用文献 (35件):
  • Y. LeCun, Y. Bengio, G. Hinton, "Deep learning," Nature, vol. 521, no. 7553, pp. 436-444, 2015.
  • K. He, X. Zhang, S. Ren, J. Sun, "Deep residual learning for image recognition," IEEE Computer Vision and Pattern Recognition, pp. 770-778, Las Vegas, NV, USA, 2016.
  • K. Kumagai, K. Shimonomura, "Event-based tactile image sensor for detecting spatio-temporal fast phenomena in contacts," 2019 IEEE World Haptics Conference (WHC), pp. 343-348, Tokyo, Japan, 2019.
  • R. Amin, B. N. Fariborz, M. Dimitrios, Z. Yahya, "A novel event-based incipient slip detection using dynamic active-pixel vision sensor (DAVIS)," Sensors, vol. 18, no. 2, pp. 333, 2018.
  • H. Cho, H. Kim, D. K. Ko, S. C. Lim, W. Hwang, "Which LSTM type is better for interaction force estimation?," 2019 7th International Conference on Robot Intelligence Technology and Applications (RiTA), pp. 61-66, Daejeon, Republic of Korea, 2019.
もっと見る
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る