文献
J-GLOBAL ID:201902248796646879   整理番号:19A0460968

話者認識における注意機構:深部話者埋め込みにおける何が学習するか?【JST・京大機械翻訳】

Attention Mechanism in Speaker Recognition: What Does it Learn in Deep Speaker Embedding?
著者 (5件):
資料名:
巻: 2018  号: SLT  ページ: 1052-1059  発行年: 2018年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,話者認識における強力な表現学習技術であることが分かっている,注意機構による深い話者埋込みに関する実験的研究を示した。このフレームワークにおいて,注意モデルは,各フレームレベル特徴ベクトルに対する注意重みを計算するフレームセレクタとして働き,それに一致して,話者埋込みネットワークにおけるプール層で発話レベル表現が生成される。一般的に,注意モデルは単一目的関数上の話者埋込みネットワークと共に訓練され,したがって,それらの2つの成分は互いに密接に結合している。本論文では,注意モデルがその親ネットワークから分離され,他の話者埋込みネットワークと従来のiベクトル抽出器を支援する可能性を考察した。この可能性を,NISTピーク認識評価(SRE)タスクに関する一連の実験を通して実証し,注意重みがiベクトル抽出に適用されるとき,9.0%のEER低減と3.8%のMINC_1次縮小を有する。もう一つの実験は,DNNベースのソフト音声活動検出(VAD)が,深い話者埋込みとiベクトルシステムにおいて,それぞれ6.6%と1.6%までMINC_1次の更なる低減をもたらすために,効果的に注意機構と結合できることを示した。Copyright 2019 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 

前のページに戻る