抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究では,単眼ビデオ列から物体を追跡するための畳込みニューラルネットワーク(CNN)と買い-売り記憶(LSTM)ネットワークに基づく回帰モデルを述べた。標的用途は視覚ベースセンサ置換(VBSS)である。特に,手術ロボット装置(SRI)の対の3次元空間における工具先端位置と速度は三手術作業,すなわち縫合,針通過と結び目結合を推定した。CNNは,個々のビデオフレームから特徴を抽出し,LSTMネットワークは時間と共にこれらの特徴を処理し,推定位置と速度値と12次元ベクトルを出力した。一連の解析と実験を種々の設計選択の利点と欠点を明らかにするために回帰モデルで行った。最初に,損失関数の影響は根平均二乗誤差(RMSE)と勾配差損失(GDL)を適切ににより調べ,特徴抽出のためのVGG16ニューラルネットワークを使用することである。第二に,この分析は,特徴抽出のために設計された残留ニューラルネットワーク,VGG16モデルよりも少ないパラメータを拡張し,ニューラルネットワークサイズの~96.44%の低減をもたらしている。第三に,LSTMネットワークにより処理された時間情報をモデル化するために使用時間ステップの数の影響を調べた。最後に,「目に見えない」手術作業(訓練セットに利用できない)に関連したデータに一般化する回帰モデルの能力を評価した。前記分析は公衆データセットJIGSAWSに実験的に検証した。これら分析はVBSSの文脈における回帰モデルの設計のためのいくつかのガイドラインを提供し,特異的に目的は,ビデオシーケンスからの1D時系列信号の集合を推定することである。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】