抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究では,任意の人間の実行者の自由視点画像を合成する一般的な深層学習フレームワークを用いて,入力としてカメラビューのスパース数のみを必要とし,ケースごとの微調整をスキリングする。関節体姿勢,形状および衣類タイプによって引き起こされる形状および外観の大きな変化は,この作業の重要なボトルネックである。これらの課題を克服するために,一般的でロバストな神経体表現を,様々な幾何学と外観で学習する,一般化可能ニューラルパーフォーマ(GNR)と名付けた,単純だが強力なフレームワークを提案した。特に,著者らは,幾何学的および外見的側面の両方から条件付き陰的神経放射輝度場として,新しい視点人間レンダリングのための光場を圧縮した。最初に,パラメトリック3D人体モデルとマルチビュー画像ヒントの両方に基づくロバスト性を強化するために,陰的幾何学的ボディ埋込み戦略を導入した。さらに,緩和だが近似的な幾何学的誘導を持つ放射輝度場へのソースビューの外観を補間することにより,高品質な外観を保存するためのスクリーン-空間オクルージョン-アウェアアプリアンス混合技術を提案した。提案手法を評価するために,顕著な複雑性と多様性を持つデータセットを構築する進行中の努力を示した。データセットGeneBody-1.0は,多視点カメラ捕獲の下で370人の被験者の360Mフレームを含み,多様な身体形状,衣服,アクセサリーおよびヘアドと共に,多様な姿勢行動を遂行する。GeneBody-1.0とZJU-Mocapに関する実験は,すべてのクロスデータセット,非セエンス被験者,および不調な姿勢設定の間の最近の最先端の一般化可能な方法よりも,著者らの方法のより良いロバスト性を示した。また,著者らのモデルの競争力を,切削エッジケース固有のものと比較する。データセット,コードおよびモデルは,公的に利用できる。【JST・京大機械翻訳】