プレプリント
J-GLOBAL ID:202202205192094602   整理番号:22P0303491

STDAN:時空間ビデオ超解像のための変形可能な注意ネットワーク【JST・京大機械翻訳】

STDAN: Deformable Attention Network for Space-Time Video Super-Resolution
著者 (5件):
資料名:
発行年: 2022年03月13日  プレプリントサーバーでの情報更新日: 2022年07月14日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
時空ビデオ超解像(STVSR)の目標は,低解像度(LR)と低フレーム速度(LFR)ビデオの空間時間分解能を増加させることである。深層学習に基づく最近のアプローチでは,著しい改善がなされてきたが,その多くは,連続入力LRフレームの情報フローを完全に探索できない,欠測フレーム埋込みを合成するために,短期特徴である2つの隣接フレームを使用するだけであった。さらに,既存のSTVSRモデルは,高解像度(HR)フレーム再構成を支援するため,時間的コンテキストを明示的に利用しない。これらの問題に取り組むために,本論文では,STVSRのためのSTDANと呼ばれる変形可能な注意ネットワークを提案した。最初に,著者らは,双方向RNN構造を通して,補間プロセスのためにより多くの隣接入力フレームから豊富なコンテンツを掘削できる,長い短期特徴補間(LSTFI)モジュールを考案した。第2に,動的ビデオフレームの空間および時間コンテキストを適応的に捕捉し,SR再構成を強化するために凝集する空間時間変形可能特徴集約(STDFA)モジュールを提案した。いくつかのデータセットに関する実験結果は,著者らのアプローチが最先端のSTVSR法より優れていることを実証した。コードはhttps://github.com/littlewhitesea/STDANで利用可能である。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る