抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオ再生に関する研究の最近の進歩は有望な結果をもたらしたが,現実的なアニメーション顔ビデオを生成するのに重要な,微細で詳細で表現的な顔特徴(例えば,リッププレス,口パッカーリング,口ギャップ,および皺)を捉えるのにアプローチが短くなる。この目的のために,著者らは,単一同一性の低次元編集を最適化することにより,データ効率の良い高品質ビデオ再合成を容易にするエンドツーエンド表現顔ビデオ符号化手法を提案した。この手法はStyleGAN2画像反転と多段階非線形潜在空間編集に構築し,入力ビデオとほぼ同等のビデオを生成する。既存のStyleGAN潜在ベースの編集技術は,静的画像の妥当な編集を単純に生成することに焦点を合わせているが,著者らは,StyleGAN2のStyle-latent-空間(StyleSpace)に存在する符号化を用いて,フレームのシーケンスにおける微細表現顔変形を捉えるために,潜在空間編集を自動化した。このようにして得られた符号化は,1024 ̄2で顔ビデオの再制定を容易にするために,単一IDentity-latentに重畳できた。提案フレームワークは,顔アイデンティティ,ヘッド姿勢,および複雑な表現顔運動を,微細レベルで経済的に捉え,それによって,訓練,人モデリング,ランドマーク/キーポイントへの依存性,および,ほとんどの再制定アプローチを妨げる傾向がある低解像度合成を迂回する。このアプローチを最大データ効率で設計し,単一W+潜在とフレーム当たり35のパラメータが高忠実度ビデオレンダリングを可能にした。このパイプラインは,また,プペットリング(すなわち,移動)にも使用できる。【JST・京大機械翻訳】