文献
J-GLOBAL ID:202202232297772777   整理番号:22A1101373

単一画像超解像のための細粒注意と特徴共有生成敵対ネットワーク【JST・京大機械翻訳】

Fine-Grained Attention and Feature-Sharing Generative Adversarial Networks for Single Image Super-Resolution
著者 (7件):
資料名:
巻: 24  ページ: 1473-1487  発行年: 2022年 
JST資料番号: W1116A  ISSN: 1520-9210  CODEN: ITMUF8  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
平均二乗誤差を最小化することによる従来の超解像度(SR)法は,通常,高周波詳細の欠如のため,過剰平滑化およびぼけエッジを有する画像を生成する。本論文では,画像超解像のための光現実的画像の生成を奨励するために,生成敵対ネットワークフレームワークの中で2つの新しい技術を提案した。最初に,実画像と偽画像を識別するための単一スコアを生成する代わりに,実画像と偽画像の各画素を識別するため,微細粒注意生成敵対ネットワーク(FASRGAN)と呼ばれる変異体を提案した。FASRGANは,2つの出力:画像スコアと画像スコアマップを持つ識別子としてUNet様ネットワークを採用する。スコアマップは,HR/SR画像と同じ空間サイズを持ち,各ピクセルの再構成困難度を表すための細粒注意として役立った。第2に,発電機と識別器のために異なるネットワークを使用する代わりに,著者らは,発電機と識別器の両方のために,特徴共有バリアント(Fs-SRGANとして表示)を導入した。共有機構は,モデルをよりコンパクトにする間,モデル表現力を維持することができて,このように,高品質画像を作り出す能力を改良することができた。ベンチマークデータセットに関する最先端の方法による定量的および視覚的比較は,著者らの方法の優位性を実証した。さらに,物体認識のための超解像度画像を適用し,提案手法の有効性を実証した。コードはhttps://github.com/Rainyfish/FASRGAN-and-Fs-SRGANで利用可能である。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る