文献
J-GLOBAL ID:202302272602868362
整理番号:23A0148607
Unpaired DeblurGAN:別々のシーンのブレ画像・シャープ画像を用いたDeblurGAN-v2ベースの単一画像モーションブレ除去手法
-
出版者サイト
{{ this.onShowPLink() }}
複写サービスで全文入手
{{ this.onShowCLink("http://jdream3.com/copy/?sid=JGLOBAL&noSystem=1&documentNoArray=23A0148607©=1") }}
-
高度な検索・分析はJDreamⅢで
{{ this.onShowJLink("http://jdream3.com/lp/jglobal/index.html?docNo=23A0148607&from=J-GLOBAL&jstjournalNo=U0451A") }}
著者 (3件):
,
,
資料名:
巻:
2022
号:
CG-188
ページ:
Vol.2022-CG-188,No.31,1-6 (WEB ONLY)
発行年:
2022年11月11日
JST資料番号:
U0451A
資料種別:
会議録 (C)
記事区分:
原著論文
発行国:
日本 (JPN)
言語:
日本語 (JA)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
DeblurGAN-v2などの単一画像を入力としたモーションブラー除去の多くの手法では,学習データに同じタイミングで同じ角度から撮影されたブレ画像とブレの無い画像(シャープ画像)のペアを必要とする。既存のモーションブラー除去手法の1つであるDeblurGAN-v2はGenerative Adversarial Networkを用いており,特にDiscriminatorの学習の際にブレ画像をGeneratorで生成した画像(ブレ除去画像)とシャープ画像に対してPerceptual loss及びPixel-wise lossを用いているため,ブレ画像とシャープ画像のペアが必要であった。この制約は学習データ収集の際に多大なコストが必要である。本研究では,学習データにブレ画像とシャープ画像を必要としない手法を提案する。DeblurGAN-v2のGeneratorの学習の損失関数に対し,Perceptual lossとPixel-wise lossの項を除いた上で,ブレ画像とGeneratorの出力であるブレ除去画像の間のL
1 lossの項を追加して学習を行う。GoPro,DVD,NFSデータセットを用いて,数値実験を通してL
1 lossの項の係数を変えた際の影響について議論する。(著者抄録)
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
,
,
,
,
,
準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
,
,
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般
引用文献 (24件):
-
Zhihang Zhong, Ye Gao, Yinqiang Zheng, and Bo Zheng. Efficient spatio-temporal recurrent neural network for video deblurring. In European Conference on Computer Vision, pp. 191-207. Springer, 2020.
-
Orest Kupyn, Tetiana Martyniuk, Junru Wu, and Zhangyang Wang. Deblurgan-v2: Deblurring (ordersof-magnitude) faster and better. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 8878-8887, 2019.
-
Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. Generative adversarial networks. Communications of the ACM, Vol. 63, No. 11, pp. 139-144, 2020.
-
Seungjun Nah, Tae Hyun Kim, and Kyoung Mu Lee. Deep multi-scale convolutional neural network for dynamic scene deblurring. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp.3883-3891, 2017.
-
Shuochen Su, Mauricio Delbracio, Jue Wang, Guillermo Sapiro, Wolfgang Heidrich, and Oliver Wang. Deep video deblurring for hand-held cameras. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 1279-1288, 2017.
もっと見る
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです
,
前のページに戻る