文献
J-GLOBAL ID:201702260907626892   整理番号:17A1645051

静止へのビデオ顔認識のためのロバストな領域不変表現を学習するための深い自動エンコーダを用いた【Powered by NICT】

Using deep autoencoders to learn robust domain-invariant representations for still-to-video face recognition
著者 (4件):
資料名:
巻: 2017  号: AVSS  ページ: 1-6  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオベース顔認識(FR)は,実世界応用における挑戦的な課題である。蒸留器にビデオFRでは,関心領域(ROI)のプローブ顔領域は典型的に無拘束条件のもとで低品質ビデオカメラにより記録されている,顔の外見は姿勢,照明,スケール,発現などに応じて変化する。これらビデオROIは典型的には高品質基準で設計された顔モデルと比較し,各標的個体のROIをシステムに登録した。本論文では,効率的な正準顔表現CNN(CFR CNN)は,一人当たり単一試料,静止およびビデオのROIを異なる条件で捕捉されるが正確な蒸留器にビデオFRを提案した。制約なしビデオ条件の下でとらえられた顔ROIを考えると,CRF CNNは参照まだROI(例えば,中性発現と良く照射,鋭い,正面)の条件に対応するマッチングのための高品質標準ROIとしてそれを再構成する。深いオートエンコーダネットワークは,同じ被験者で類似していた面埋込みをロバストに行うことができる新しい重み付き損失関数を用いて訓練した。,作業中に,標的個体から静止およびビデオROI(関心領域)の対に属する面の埋込みは完全結合分類ネットワークを用いた正確に一致した。COX顔とChokepointデータセットを用いて得られた実験結果は,提案したCFR CNNは説得力のあるレベルの精度を達成できることを示した。計算の複雑さ(操作,ネットワークパラメータと層の数)は,ビデオFRのための最先端のCNNよりも有意に低く,CFR CNNは実時間応用のためのコスト効率の良い解決策であることを示唆する。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般 

前のページに戻る