文献
J-GLOBAL ID:202202283192413674   整理番号:22A0980608

CNNとDNNを用いたスペクトルおよび韻律特徴の深い融合による効果的な音声感情分類のためのハイブリッド音響モデル【JST・京大機械翻訳】

A Hybrid Acoustic Model for Effective Speech Emotion Classification by the Deep Fusion of Spectral and Prosodic Features Using CNN and DNN
著者 (5件):
資料名:
巻: 853  ページ: 625-638  発行年: 2022年 
JST資料番号: W5070A  ISSN: 1876-1100  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: ドイツ (DEU)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
サービスの顧客品質を改善するために,音声感情分類(SEC)の必要性を調査して,強化するために,本論文は,ニューラルネットワーク融合ベースの特徴抽出機構を用いて,音声特徴を分析することによって,音声を様々な感情に分類した。本論文では,スペクトログラムと韻律特徴から抽出した深層特徴の融合による深層学習フレームワークを提案した。メルスケールスペクトログラムから特徴を抽出するために2D畳込みニューラルネットワーク(CNN)を実装した。伝統的方法の欠点は,深い特徴抽出のための深いニューラルネットワーク(DNN)によるCNNの融合によって扱った。実験結果をRAVDESS感情音声データベースから導出し,CNNとDNNを用いてパラ言語スペクトログラムと韻律特徴を結合することにより,有意な感情精度改善を実証した。種々の機械学習と深層学習技術を用いて分類精度に関して提案モデルを比較した。比較は,特徴がクロマグラム,スペクトログラム,メル周波数ケプストラム係数(MFCC),およびトーナル重心特徴抽出技術から抽出された従来のモデルと比較された。提案モデルから得た結果は,精度,再現,およびFスコアに関して測定した場合,性能が優れていた。深い融合特徴抽出の分類精度は83%であり,従来の最先端のモデルと同程度の差があった。Copyright The Author(s), under exclusive license to Springer Nature Singapore Pte Ltd. 2022 Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 

前のページに戻る