文献
J-GLOBAL ID:202202262488154569   整理番号:22A0577692

ビデオぼけ除去のためのデュアルストリーム時空間デカップリングネットワーク【JST・京大機械翻訳】

Dual-stream spatio-temporal decoupling network for video deblurring
著者 (4件):
資料名:
巻: 116  ページ: Null  発行年: 2022年 
JST資料番号: W2175A  ISSN: 1568-4946  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層学習に基づくビデオぼけの時空間情報を得ることは非常に重要である。既存の方法は,通常,単一ストリームネットワークを通して不鮮明なビデオの空間-時間情報を学習して,それは必然的にネットワークの空間-時間情報学習とビデオぼけ性能を制限する。したがって,著者らは,この問題を解決するため,分離時間ストリームと空間ストリームで,より柔軟かつ効率的にぼやけたビデオの時空間情報を学習できる,二重ストリーム時空間デカップリングネットワーク(STDN)を提案する。第1に,STDNの時間ストリームにおいて,著者らは,その受容野が,異なるフレームの同じだが誤配置されたコンテンツを効果的にカバーできない3D CNNの欠点を解決するために,動き補償+3D CNNであるビデオぼけパイプラインを提案する。従って,時間的ストリームはフレームシーケンスの時間的情報を集約し,フレーム間不整合をより効果的に扱うことができる。特に,このパイプラインの運動補償をより正確に達成するために,新しい変形可能畳込み補償モジュール(DCCM)を設計した。次に,このパイプラインの3D CNNを達成するために,CTSと呼ぶ,設計した時間,空間,およびチャネルデカップリング注意ブロックによって最適化された3DConvモジュールを開発した。第二に,時間ストリームを補足するために中心フレームのより多くの空間特徴を学習するために,2つのタイプの広い活性化残差モジュールを積み重ねる空間ストリームを設計した。最後に,ベースラインデータセットに関する広範な実験は,提案したSTDNが最新の方法より良い性能を有することを示した。注目すべきことに,提案した時間ストリームのみを用いて,既存の方法よりも競合ビデオぼけ性能を達成できる。Copyright 2022 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  テレビジョン一般 

前のページに戻る