文献
J-GLOBAL ID:202002256762555582   整理番号:20A2132062

話者検証のための多レベル注意を持つ拡張残差ネットワーク【JST・京大機械翻訳】

Dilated residual networks with multi-level attention for speaker verification
著者 (5件):
資料名:
巻: 412  ページ: 177-186  発行年: 2020年 
JST資料番号: W0360A  ISSN: 0925-2312  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層学習技法の開発により,深層ニューラルネットワーク(DNN)に基づく話者検証(SV)システムは,従来のiベクトルベース研究と比較して,競合性能を達成する。従来のDNNベースSV法は,通常時間遅れニューラルネットワークを採用し,効果的な表現のためのネットワークの拡張を制限する。そのうえ,DNNベースのSVシステムで使用される既存の注意機構は,ネットワークアーキテクチャの単一レベルにのみ適用され,重要な特徴を不十分に抽出する。上記の問題に取り組むために,著者らは,SVのための効果的な深い話者埋込みアーキテクチャを提案し,それは,拡張残差ネットワーク(DRN)と呼ばれる一次元拡張畳込み層の残留接続を,マルチレベル注意モデルと組み合わせた。DRNは,特徴の長い時間周波数コンテキスト情報を捉えるだけでなく,DNNの多重層から情報を利用することもできる。さらに,フレームレベルで採用された二次元畳込みブロック注意モジュールとプール層で使用されるベクトルベース注意から成るマルチレベル注意モデルは,DNNの多重レベルで重要な特徴を強調することができる。NIST SRE2016データセットで行った実験は,提案したアーキテクチャが,最先端の方法と比較して,7.094%の優れた等価誤り率(EER)と0.552のより良い検出コスト関数(DCF16)を達成することを示した。さらに,アブレーション実験は,SVタスクに対する拡張畳込みとマルチレベル注意の有効性を実証した。Copyright 2020 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
著者キーワード (3件):
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
ニューロコンピュータ  ,  人工知能 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る