抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,意味誘導画像生成のタスクに取り組んだ。ほとんどの既存の画像レベル生成法に共通する一つの課題は,小さな物体と詳細な局所テクスチャを生成することの困難さである。これに対処するために,本研究では,局所コンテキストを用いて画像を生成する。このように,著者らは,異なるクラスのためにサブジェネレータを別々に構築して学習するガイダンスとしてセマンティックマップを用いて局所クラス固有生成ネットワークを設計し,より微細な詳細を捉えることを可能にした。局所生成のためのより識別的なクラス特有の特徴表現を学習するために,新しい分類モジュールを提案した。グローバル画像レベルと局所クラス固有生成の両方の利点を組み合わせるために,結合生成ネットワークを,注意融合モジュールと埋込み二重識別器構造で設計した。最後に,大きな受容野を持ち,特徴アップサンプリングに意味的に関連する遠方向画素を取り入れることができる,新しい意味意識アップサンプリング法を提案し,同じ意味ラベルを持つインスタンスに対する意味一貫性をより良く保存することを可能にした。2つの画像生成タスクに関する大規模な実験は,提案方法の優れた性能を示した。最先端の結果は,両方のタスクと9つの挑戦的な公開ベンチマークに関する大きなマージンによって確立された。ソースコードと訓練されたモデルはhttps://github.com/Ha0Tang/LGGANで利用可能である。【JST・京大機械翻訳】