プレプリント
J-GLOBAL ID:202202218007902883   整理番号:22P0305845

詳細またはアーチファクト:現実的画像超解像への局所識別学習アプローチ【JST・京大機械翻訳】

Details or Artifacts: A Locally Discriminative Learning Approach to Realistic Image Super-Resolution
著者 (3件):
資料名:
発行年: 2022年03月17日  プレプリントサーバーでの情報更新日: 2022年03月17日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
生成敵対ネットワーク(GAN)による単一画像超解像(ISR)は,最近,豊富な詳細を生成する可能性により,ますます注目を集めている。しかし,GANの訓練は不安定であり,発生する詳細とともに多くの知覚的に不快なアーチファクトを導入することが多い。本論文では,視覚アーチファクトを抑止しながら,知覚的に現実的な詳細を安定的に生成できるGANベースSIRモデルを訓練できることを示した。アーチファクト領域の局所統計(例えば,残差分散)が知覚的に優しい詳細の地域としばしば異なるという観察に基づき,GAN生成アーチファクトと現実的詳細を識別するフレームワークを開発し,その結果,モデル訓練プロセスを正規化し安定化するためのアーチファクトマップを生成した。ここで提案した局所識別学習(LDL)法は簡単だが効果的であるが,これは,オフ-シェルSIR法で容易にプラグでき,その性能を高めることができる。実験は,LDLが最先端のGANベースのSIR法より優れ,より高い再構成精度だけでなく,合成および実世界データセット上で優れた知覚品質も達成することを証明した。コードとモデルはhttps://github.com/csjliang/LDLで利用可能である。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る