文献
J-GLOBAL ID:202202289414782296   整理番号:22A0856378

効率的視覚追跡のための深層畳込み記述子集約の学習【JST・京大機械翻訳】

Learning deep convolutional descriptor aggregation for efficient visual tracking
著者 (8件):
資料名:
巻: 34  号:ページ: 3745-3765  発行年: 2022年 
JST資料番号: W0703A  ISSN: 0941-0643  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: ドイツ (DEU)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビジュアルトラッカーは深い特徴から高レベル性能を達成したが,多くの制限が残っている。オンライントラッカーは,パラメータ更新のために深い特徴を使用する間,低速に悩まし,そして,オフラインで訓練された深いトラッカーは,データハンガーを示した。これらの課題に応えるために,本研究は,事前訓練モデルの目標表現能力をマイニングし,視覚追跡のための深い畳み込み記述子凝集(DCDA)を提示した。空間的および意味的事前情報に基づき,著者らは,エッジ意識選択(EAS)および中心意識選択(CAS)法を提案し,精度意識およびロバスト性認識特徴を統合した。シーンコンテキストを完全に利用するために,いくつかの反復で識別モデルを予測できる専用回帰プロセスを設計することにより,提案手法をワンショット学習から導出する。ロバスト性特徴集約,精度特徴集約,および識別回帰を利用することによって,Siamese追跡アーキテクチャによる著者らのDCDAは,ターゲット予測能力を強化するだけでなく,事前訓練モデルの低コスト再利用も達成する。OTB-100,VOT2016,VOT2017,VOT2020,NFS30,およびNFS240に関する総合的実験は,著者らのDCDAトラッカーが65FPSの高い走行速度で最先端の性能を達成することを示した。本研究のソースコードとすべての実験結果は,公開されている。Copyright The Author(s), under exclusive licence to Springer-Verlag London Ltd., part of Springer Nature 2021 Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 

前のページに戻る