文献
J-GLOBAL ID:201902244492201427   整理番号:19A2855511

視聴覚データのCNNベース特徴を用いた感情次元の推定【JST・京大機械翻訳】

Estimation of affective dimensions using CNN-based features of audiovisual data
著者 (5件):
資料名:
巻: 128  ページ: 290-297  発行年: 2019年 
JST資料番号: H0913A  ISSN: 0167-8655  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
感情状態の自動推定は,感情がユーザ指向対話技術における重要な要素であるので,大きな関心事である。本論文は,連続レベルの感情状態の次元を予測するために,フィードフォワード畳込みニューラルネットワーク(CNN)の使用とそのようなネットワークから抽出された特徴を調査する。この文脈において,ビデオと音声データを同時に学習する2ストリームCNNアーキテクチャを提案した。感情次元に対するオーディオビジュアルデータのエンドツーエンドマッピングは,2ストリームネットワークがその単一ストリーム対応物よりも優れていることを明らかにした。CNNsによって学習された表現は,最小冗長性最大関連性統計選択法を通して精密化される。次に,選択したCNNベースの特徴に適用したサポートベクトル回帰により,感情次元の瞬時値を推定した。提案した方法を訓練し,良く知られたRECOLAとSEMAINEデータベースのオーディオビジュアル変換を用いてテストした。実験的には,CNNベースの特徴の回帰が,従来のオーディオビジュアル感情特徴およびエンドツーエンドCNNマッピングより優れていることを検証した。一般化実験を通して,訓練と試験データセットの設定が広く異なるとき,学習表現が許容できる予測性能を提供するのに十分ロバストであることも観察される。Copyright 2019 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る