抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオオブジェクトセグメンテーション(R-VOS)は,すべてのビデオフレームにおける言語表現によって参照される目標オブジェクトを分割することを目的とする,新しいクロスモーダルタスクである。本研究では,ReferFormerと呼ばれる変換器上に構築された簡単で統一されたフレームワークを提案した。それは,質問として言語を展望して,ビデオフレームにおける最も関連した領域に直接意図する。具体的には,変換者への入力として言語に条件付けされたオブジェクトクエリの小さい集合を導入した。この方法で,すべてのクエリは,参照オブジェクトだけを見つけるのに偏った。それらは最終的に重要なオブジェクトレベル情報を捉える動的カーネルに変換され,特徴マップからセグメンテーションマスクを生成する畳込みフィルタの役割を演ずる。物体追跡は,フレームを通して対応するクエリをリンクすることによって自然に達成される。この機構はパイプラインを大きく単純化し,エンドツーエンドフレームワークは以前の方法とは著しく異なる。Ref-Youtube-VOS,Ref-DAVIS17,A2D-SentencesおよびJHMDB-Sentencesに関する大規模な実験は,ReferFormerの有効性を示した。Ref-Youtube-VOS上で,Refer-Formerは,ベルと wのないResNet-50バックボーンで55.6J&Fを達成し,それは以前の最先端の性能を8.4ポイント超えた。加えて,強いSwin-Largeeバックボーンで,ReferFormerは,すべての既存の方法の中で64.2の最良J&Fを達成した。さらに,A2D-SentencesとJHMDB-Sentencesに対する55.0mAPと43.7mAPの印象的な結果を示し,それは大きなマージンによって以前の方法より著しく優れている。コードはhttps://github.com/wjn922/ReferFormerで公開されている。【JST・京大機械翻訳】