文献
J-GLOBAL ID:202202245522912148   整理番号:22A1053170

ビデオオブジェクトセグメンテーションのための注意誘導メモリモデル【JST・京大機械翻訳】

Attention-Guided Memory Model for Video Object Segmentation
著者 (2件):
資料名:
巻: 1566  ページ: 67-85  発行年: 2022年 
JST資料番号: W5071A  ISSN: 1865-0929  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: ドイツ (DEU)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
半教師つきビデオオブジェクトセグメンテーション(S-VOS)を,推論期間の間に初期マスクに指定した対象のオブジェクトを画素ごとに分離する。小さな物体では,単一フレームに含まれる利用可能な情報が制限され,S-VOSタスクはより挑戦的である。既存の方法は,小さな物体シーケンスに関する精度と速度の間のバランスに達することができない。問題を解決するために,2つの新しいモジュール,すなわち,共同注意誘導(JAG)と空間時間特徴融合(STFF)を導入することによって,ビデオオブジェクトセグメンテーションのための注意誘導メモリモデル(AGM)を開発した。精度のために,JAGは,顕著な特徴マップを生成するために多次元注意機構を採用し,それは視覚ガイド,空間ガイドおよびチャネルガイドを通して対象領域を強調する。さらに,STFFは,以前のメモリ特徴,現在の高レベル顕著特徴,および低レベル特徴の融合により,より完全な空間-時間情報を統合し,それは,小さなオブジェクトの効果的表現を提供する。速度については,STFFは,最先端のモデルで使用される明示的なクエリアプローチよりも,その組込み計算アーキテクチャがより効率的であるいくつかの軽量RNNを採用した。DAVISとYouTube-VOSデータセットに関する広範な実験を行った。DAVIS2017上の小型物体に対して,AGMは480pに対して28.0fpsの63.5[数式:原文を参照]平均を得て,最先端の方法と比較して約5x速い速度で同様の精度を達成した。Copyright Springer Nature Singapore Pte Ltd. 2022 Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般  ,  人工知能 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る