抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
時空ビデオ超解像(STVSR)の目標は,低解像度(LR)と低フレーム速度(LFR)ビデオの空間時間分解能を増加させることである。深層学習に基づく最近のアプローチでは,著しい改善がなされてきたが,その多くは,連続入力LRフレームの情報フローを完全に探索できない,欠測フレーム埋込みを合成するために,短期特徴である2つの隣接フレームを使用するだけであった。さらに,既存のSTVSRモデルは,高解像度(HR)フレーム再構成を支援するため,時間的コンテキストを明示的に利用しない。これらの問題に取り組むために,本論文では,STVSRのためのSTDANと呼ばれる変形可能な注意ネットワークを提案した。最初に,著者らは,双方向RNN構造を通して,補間プロセスのためにより多くの隣接入力フレームから豊富なコンテンツを掘削できる,長い短期特徴補間(LSTFI)モジュールを考案した。第2に,動的ビデオフレームの空間および時間コンテキストを適応的に捕捉し,SR再構成を強化するために凝集する空間時間変形可能特徴集約(STDFA)モジュールを提案した。いくつかのデータセットに関する実験結果は,著者らのアプローチが最先端のSTVSR法より優れていることを実証した。コードはhttps://github.com/littlewhitesea/STDANで利用可能である。【JST・京大機械翻訳】