文献
J-GLOBAL ID:202002271062736168   整理番号:20A0433540

聴覚フロントエンドを持つ3Dコンボルーションと注意ベースのスライディング回帰ネットワークを用いた音声感情認識【JST・京大機械翻訳】

Speech Emotion Recognition Using 3D Convolutions and Attention-Based Sliding Recurrent Networks With Auditory Front-Ends
著者 (6件):
資料名:
巻:ページ: 16560-16572  発行年: 2020年 
JST資料番号: W2422A  ISSN: 2169-3536  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
音声からの感情情報は,ロボットが自然の人間-ロボット相互作用における話者の意図を理解するのを効果的に助けることができる。人間の聴覚システムは,音声の強度と基本周波数を知覚することにより,感情の時間的ダイナミクスを容易に追跡することができ,顕著な感情領域に焦点を合わせることができる。したがって,聴覚機構と注意機構を組み合わせた音声感情認識は,有効な方法である可能性がある。いくつかの以前の研究では,感情ダイナミクスを無視しながら感情を同定するために聴覚ベースの静的特徴を用いた。いくつかの他の研究は,認知連続性を無視しながら,感情の顕著な領域を捉えるために注意モデルを使用した。聴覚と注意機構を完全に利用するために,まず聴覚フロントエンドからの時間変調キューを研究し,次に,感情認識のために3D畳込みと注意に基づくスライディングリカレントニューラルネットワーク(ASRNN)を組み合わせた共同の深い学習モデルを提案した。IEMOCAPとMSP-IMPROVデータセットに関する実験は,提案した方法が時間変調キューからの音声の感情を認識するために効果的に使用できることを示した。主観的評価により,注意モデルの注意パターンは基本的に感情認識における人間行動と一致することを示した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 

前のページに戻る