抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
単一顔画像からの微細スケール詳細を有する高密度3Dモデルを学習することは,非常に挑戦的であり,不良である。この問題に取り組むために,多くのアプローチが,追加の変位マップまたは個人化された基底として詳細を学習しながら,顔の事前を通して滑らかな形状に適合する。しかし,これらの技法は,対多視点データまたは3Dスキャンの膨大なデータセットを必要とするが,そのようなデータセットは不足しており,高価である。重いデータ依存性を軽減するために,単一インザイス顔画像のみを用いたロバストテクスチャ誘導幾何学的詳細回復アプローチを示した。より具体的には,著者らの方法は,陰的表面の強力な表現性と高品質のテクスチャ完了を組み合わせる。最初に,著者らは,閉塞した顔部分を修復し,完全なテクスチャを生成し,同じ主題の正確なマルチビューデータセットを構築した。詳細な形状を推定するために,暗黙の符号付き距離関数を定義し,生成されたマルチビュー画像から微細な幾何学的詳細を再構成するために,物理的にベースの陰的レンダリング器を採用した。著者らの方法は,正確な顔の詳細を回復するだけでなく,自己監督された方法で,正常,アルベド,および遮光部分を分解する。最後に,従来のモデリングとレンダリングパイプラインで使用できる3D Morphable Modelテンプレートに陰的形状の詳細を登録する。大規模な実験は,提案した方式が単一画像から印象的な顔の詳細を再構成できることを示し,特に大規模データセットで訓練された最先端の方法と比較した。【JST・京大機械翻訳】