文献
J-GLOBAL ID:201702231854503503   整理番号:17A1254865

マルチラベル顔動作単位の検出のための学習空間的および時間的手がかり【Powered by NICT】

Learning Spatial and Temporal Cues for Multi-Label Facial Action Unit Detection
著者 (3件):
資料名:
巻: 2017  号: FG  ページ: 25-32  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
顔動作単位(AU)を基本単位ヒト顔表情を解読した。少なくとも三つの側面は自動AU検出の性能に影響を与える:空間表現,時間的モデリング,およびAU相関。これらの側面に取り組む別々に最も研究とは異なり,筆者らは協同で,それらをモデル化するハイブリッドネットワークアーキテクチャを提案した。特に,空間表現は畳込みニューラルネットワーク(CNN)は,この論文で解析されたように,手作りの記述子(例えば,H OGとGabor)に起因する特有のバイアスを減少させることができ,抽出した。時間依存性をモデル化するために,これらの表現のトップ上に積層し,入力ビデオの長さに関係なくした長い短期記憶(LSTMs)。CNNとLSTMsの出力はさらに融合ネットワークに集約された12のAUsのフレーム当たりの予測を生成した。筆者らのネットワークは,自然状態で一緒に三つの問題を検討し,これらの問題を独立に考慮した既存の方法に比べて優れた性能が得られた。二大きな自発データセット,GFTとBP4Dで行い,12AUで符号化された400,000フレーム以上であった広範な実験。両データセットについて,標準的なマルチラベルCNNと特徴ベースの最新技術を超えて改善を報告した。最後に,学習されたAUモデルの可視化,著者らの知る限り,機械を初めてAUsを見るかを明らかにすることを提供した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る