抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
顔行動ユニット(AU)検出に対する最先端のアプローチの多くは,静的フレームからの顔表情の評価に依存し,高い顔活動のスナップショットを符号化する。しかし,実世界のインタラクションでは,顔表情は通常より微妙であり,時間的情報と同様に空間を学習するためにAU検出モデルを必要とする時間的方法で進化する。本論文では,顔AU活性化の時間的進化を符号化する空間および時空間特徴の両方に焦点を当てた。この目的のために,フレームとシーケンスレベル特徴の両方を用いてAU検出を行う,Action Unit Lifecycle Aware Capswork Network(AULA-Caps)を提案する。フレームレベルでは,AULA-Capsのカプセル層は,配列レベルでAU活性化を決定するために空間特徴プリミティブを学習し,配列レベルで,関連する空間-時間セグメントに焦点を合わせて,隣接フレーム間の時間的依存性を学習する。学習特徴カプセルは,AUライフサイクルに依存して空間または空間時間情報に選択的に焦点をつけるように学習する。提案モデルは,両方のデータセットに関して最先端の結果を得る一般的に使用されるBP4DとGFTベンチマークデータセットに関して評価した。【JST・京大機械翻訳】