文献
J-GLOBAL ID:201802235423346627   整理番号:18A0244575

ディープニューラルネットワークを用いた単眼ビデオシーケンスからの3D空間における位置と速度の推定【Powered by NICT】

Estimating Position & Velocity in 3D Space from Monocular Video Sequences Using a Deep Neural Network
著者 (5件):
資料名:
巻: 2017  号: ICCVW  ページ: 1460-1469  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究では,単眼ビデオ列から物体を追跡するための畳込みニューラルネットワーク(CNN)と買い-売り記憶(LSTM)ネットワークに基づく回帰モデルを述べた。標的用途は視覚ベースセンサ置換(VBSS)である。特に,手術ロボット装置(SRI)の対の3次元空間における工具先端位置と速度は三手術作業,すなわち縫合,針通過と結び目結合を推定した。CNNは,個々のビデオフレームから特徴を抽出し,LSTMネットワークは時間と共にこれらの特徴を処理し,推定位置と速度値と12次元ベクトルを出力した。一連の解析と実験を種々の設計選択の利点と欠点を明らかにするために回帰モデルで行った。最初に,損失関数の影響は根平均二乗誤差(RMSE)と勾配差損失(GDL)を適切ににより調べ,特徴抽出のためのVGG16ニューラルネットワークを使用することである。第二に,この分析は,特徴抽出のために設計された残留ニューラルネットワーク,VGG16モデルよりも少ないパラメータを拡張し,ニューラルネットワークサイズの~96.44%の低減をもたらしている。第三に,LSTMネットワークにより処理された時間情報をモデル化するために使用時間ステップの数の影響を調べた。最後に,「目に見えない」手術作業(訓練セットに利用できない)に関連したデータに一般化する回帰モデルの能力を評価した。前記分析は公衆データセットJIGSAWSに実験的に検証した。これら分析はVBSSの文脈における回帰モデルの設計のためのいくつかのガイドラインを提供し,特異的に目的は,ビデオシーケンスからの1D時系列信号の集合を推定することである。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る