抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
画像とビデオ捕捉技術は,我々の日常生活を透過した。このような技術は,実生活設定における個人の表現を継続的に監視することができ,それらの感情的状態および遷移への新しい洞察を提供し,従って,新しい幸福および健康管理応用への道を開いた。しかし,強いプライバシー懸念のため,そのような技術の使用は,深い学習技術に依存する現在の顔ベースの感情認識システムが,感情特異的情報とは別に,ユーザのアイデンティティに関連する実質的な情報を保存する傾向があるので,強いスケプティズムで満たされている。本論文では,アイデンティティ固有情報を最小化し,感情依存情報を最大化するための反復手順により訓練された畳み込みニューラルネットワーク(CNN)アーキテクチャに依存する敵対学習フレームワークを提案した。提案手法は,感情分類と顔同定メトリックスを通して評価され,2つのCNNに対して比較され,1つは感情認識のためにのみ訓練され,もう1つは顔識別のためにのみ訓練された。実験は,Yale Face Datasetと日本の女性顔表情データベースを用いて行った。結果は,提案した方式が感情認識精度を保存するための畳込み変換を学習し,顔アイデンティティ認識を劣化させ,プライバシー認識感情認識技術に対する基礎を提供することを示した。【JST・京大機械翻訳】