抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
既存の画像-画像変換手法は,主に視覚的に plしいデータを合成することに焦点を合わせる。正しい同一性ラベルを持つ画像生成は,まだ,あまり探索されていない。顔回転や物体視点モーフィングのようなアイデンティティを維持しながら,姿勢,視点,あるいはスケールにおける大きな変形を伴う画像変換タスクを扱うことはさらに困難である。本論文では,入力画像の同一性を保存する新しい画像を合成するため,微細粒カテゴリを用いて画像を変換し,それによって,後続の微細粒画像認識と少数ショット学習タスクに利益を得ることができる。大きな幾何学的変形で変換された生成画像は,必ずしも高い視覚品質を必要とするが,できるだけ多くのアイデンティティ情報を維持するのに必要である。この目的のために,著者らは,画像の同一性関連および関係のない因子を解決するために,生成敵対ネットワークに基づくモデルを採用した。変形可能な変換の間,入力画像の微細粒の文脈の詳細を保存するために,制約付き非整列接続法を提案し,発電機における中間畳込みブロック間の学習可能なハイウェイを構築した。さらに,適応アイデンティティ変調機構を提案し,アイデンティティ情報を出力画像に効果的に転送する。CompCarsとMulti-PIEデータセットに関する広範な実験は,著者らのモデルが,最先端の画像-画像変換モデルよりはるかに良く生成された画像の同一性を保存し,結果として,微細粒数ショット学習における視覚認識性能を著しく高めることを示した。【JST・京大機械翻訳】