抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文は,目標がターゲット顔の顔姿勢(3Dヘッド方向と表現)をソース顔に転送することである。従来手法では,アイデンティティに対する埋込みネットワークを学習し,むしろハードなタスクであることを証明し,生成された画像の品質を劣化させる。高品質顔画像を生成することができる(微調整)事前訓練GANを用いて,そのようなネットワークの訓練を迂回する異なるアプローチを取り上げる。GANは弱い可制御性を特徴とするので,著者らのアプローチのコアは,潜在的GAN空間におけるどの方向が顔姿勢と表情変化を制御するかを発見する方法である。ここでは,顔姿勢,アイデンティティおよび表現に対するもつれた方向を既に捉える3D形状モデルの助けを借りて,そのような方向を学習するための簡単なパイプラインを提示した。さらに,GAN潜在空間に実画像を埋め込むことにより,本手法を実世界顔の再構成にうまく使用できることを示した。提案手法は,単一ソース画像(ワンショット)を用いて,交差個人再制定を可能にするいくつかの好ましい特性を特徴とする。著者らの定性的および定量的結果は,著者らのアプローチが,VoxCeleb1&2の標準ベンチマークのための最先端の手法によって生成されたものより,しばしば有意に高い品質の再構成された顔を生成することを示した。ソースコードは,https://github.com/StelaBou/stylegan_directions_face_reenactmentで利用可能である。【JST・京大機械翻訳】