抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
3D顔アバタは通信のためにより広く使われるので,感情を忠実に伝えることが重要である。残念なことに,単眼画像からパラメトリック3D顔モデルを回帰する最良の最近の方法は,微妙なまたは極端な感情のような顔表情の全スペクトルを捉えることができない。訓練(ランドマーク再投影誤差,測光誤差,顔認識損失)に用いる標準再構成メトリックは,高忠実度表現を捉えるには不十分である。結果は,入力画像の感情的内容にマッチしない顔形状である。訓練中に新しい深い知覚的感情一貫性損失を導入することで,EMOCA(EMOtion Capture and Anammation)でこれに対処し,再構成された3D表現が入力画像で表現された表現と一致することを確実にする。EMOCAは,現在の最良手法との構文にある3D再構成誤差を達成するが,再構成された表現の品質と知覚された感情コンテンツに関して,それらより著しく優れている。また,原子価と覚醒のレベルを直接回帰し,推定3D顔パラメータから基本表現を分類した。企業内感情認識のタスクにおいて,著者らの純粋な幾何学的手法は,最良の画像ベースの方法であり,人間行動の解析における3D幾何学の価値を強調する。モデルとコードはhttps://emoca.is.tue.mpg.deで公的に利用できる。【JST・京大機械翻訳】