抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,人間-エージェント相互作用における動的に変化する顔表情の光現実的なビデオシーケンスを生成するアプローチを示した。この目的のために,ヒト-ヒト相互作用を研究し,他方の反応における1つの個人の表情の関係と影響をモデル化した。著者らは,第1段階が,相互作用している人間パートナーに由来する顔表情特徴に条件付けされたエージェントの顔スケッチのダイナミックに変化するシーケンスを生成する,生成敵対モデルの2つのレベル最適化を導入した。これは,エージェント顔の高品質ビデオを合成するために,第2段階生成モデルを条件づけるために使用される中間表現として役立つ。本手法は,GANモデルにおける発電機目的と統合される識別器の層特徴から計算した新しいL1正則化項を用いる。セッション制約もビデオフレーム生成に課せられ,連続フレーム間の外見一貫性を確実にする。著者らは,著者らのモデルが視覚的に説得力のある顔表情を生成するのに有効であることを実証した。さらに,生成されたビデオクリップにおけるエージェント表情は,人間パートナーの挙動に対する有効な感情的反応を反映することを示した。Please refer to this article’s citation page on the publisher website for specific rights information. Translated from English into Japanese by JST.【JST・京大機械翻訳】