文献
J-GLOBAL ID:202002260846098359   整理番号:20A0832708

ビデオぼけ除去のための空間-時間フィルタ適応ネットワーク【JST・京大機械翻訳】

Spatio-Temporal Filter Adaptive Network for Video Deblurring
著者 (6件):
資料名:
巻: 2019  号: ICCV  ページ: 2482-2491  発行年: 2019年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオぼけは,カメラ振れ,物体運動,および深さ変動などによって引き起こされる空間的に変化するぼけのために挑戦的な仕事であり,既存の方法は通常,連続的なフレームまたは近似的なぼけカーネルを整列させるためにぼけビデオにおけるオプティカルフローを推定する。しかし,推定オプティカルフローが正確でない場合,それらはアーチファクトを生成する傾向があり,ぼけを効果的に除去できない。分離されたオプティカルフロー推定の限界を克服するために,著者らは,統一されたフレームワークにおけるアラインメントとぼけのための空間時間フィルタ適応ネットワーク(STFAN)を提案した。提案したSTFANは,入力としての現在のフレームのぼけ画像と同様に,以前のフレームのぼけと復元画像の両方を取り,アラインメントとぼけのための空間的に適応可能なフィルタを動的に生成する。次に,現在のフレームにより以前のフレームのぼけた特徴を整列させ,電流フレームの特徴から空間的に変化するぼけを除去するために,新しいフィルタ適応畳込み(FAC)層を提案した。最後に,明確なフレームを復元するために2つの変換された特徴の融合を取る再構成ネットワークを開発した。ベンチマークデータセットと実世界ビデオに関する定量的および定性的評価結果は,提案したアルゴリズムが,モデルサイズと同様に精度,速度に関して最先端の方法に対して有利に機能することを実証した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る