プレプリント
J-GLOBAL ID:202202218592460521   整理番号:22P0040281

畳込みニューラルネットワークと条件付き確率場を用いた時空間表情認識【JST・京大機械翻訳】

Spatio-Temporal Facial Expression Recognition Using Convolutional Neural Networks and Conditional Random Fields
著者 (2件):
資料名:
発行年: 2017年03月20日  プレプリントサーバーでの情報更新日: 2017年04月24日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
※このプレプリント論文は学術誌に掲載済みです。なお、学術誌掲載の際には一部内容が変更されている可能性があります。
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
自動顔表情認識(FER)は,数十年間挑戦的な課題であった。既存の研究の多くは,LBP,HOG,LPQ,および表現認識のためのサポートベクトルマシンのような分類器と組み合わせた光フロー(HOF)のヒストグラムのような手作業特徴を用いている。これらの方法は,良好な結果を達成するために厳密なハイパーパラメータチューニングを必要とすることが多い。最近,深層ニューラルネットワーク(DNN)は,視覚物体認識において従来の方法より優れていることが示されている。本論文では,ビデオにおける顔表情認識のための条件付きランダムフィールド(CRF)モジュールに続くDNNベースアーキテクチャから成る2部分ネットワークを提案した。第一部では,畳み込み層を用いて顔画像内の空間関係を捉え,次に3つのIncep-ResNetモジュールと2つの完全接続層が続いた。画像フレーム間の時間的関係を把握するため,ネットワークの第2部分に線形鎖CRFを用いた。3つの公的に利用可能なデータベース,すなわち,提案したネットワークを評価した。CK+,MMIおよびFERA。被験者独立および交差データベース方式で実験を行った。著者らの実験結果は,CRFモジュールによる深いネットワークアーキテクチャのカスケードがビデオにおける顔表情の認識をかなり増大させ,特に,クロスデータベース実験で最先端の方法よりも性能が優れており,被験者に依存しない実験で同等の結果をもたらすことを示す。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る