抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
Generative Adversarial Networks(GAN)は画像生成において急速に普及している。GANに対してスタイルパラメータを導入したアーキテクチャであるStyleGAN及びStyleGAN2は年齢,性別,髪型,眼鏡,絵の画風など,画像に関する属性を対象画像に任意に適用することができる。スタイル変換の幅は非常に広く,人物から人物への変換だけでなく動物や車などを対象にしたものや,人を絵画やアニメーション風に変換するものなど,多岐にわたる。またその高い画像生成能力は多くのサービスに利用され,特に人物顔画像に対してスタイル変換を行うことには大きな需要がある。本研究では,アニメーションのプロダクションごとのキャラクターの画風を描画スタイルとみなし,スタイル変換ネットワークによって特徴空間を獲得・可視化および入力画像に対して適用する手法を提案する。ネットワークとしては,StyleGAN2をベースとしてConditional GANの要素を付加した手法を提案し,学習された潜在空間に対してUMAP等の手法で可視化を行い,潜在変数がプロダクションごとに分布することを確認した。また,人物顔画像を投影・及び逆変換することで人物画像を様々なスタイルに変換する手法を提案した。(著者抄録)