プレプリント
J-GLOBAL ID:202202208986611805   整理番号:22P0275586

テキスト依存話者検証における深層表現学習のための訓練目標と活性化機能について【JST・京大機械翻訳】

On Training Targets and Activation Functions for Deep Representation Learning in Text-Dependent Speaker Verification
著者 (2件):
資料名:
発行年: 2022年01月17日  プレプリントサーバーでの情報更新日: 2022年01月17日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層表現学習は,テキスト依存話者検証(TD-SV)システムの前進において顕著な運動量を獲得した。ボトルネック特徴を抽出するための深層ニューラルネットワーク(DNN)を設計するとき,重要な考慮は,訓練目標,活性化関数,および損失関数を含んでいる。本論文では,TD-SVの性能に対するこれらの選択の影響を系統的に研究した。訓練目標のために,話者アイデンティティ,時間コントラスト学習(TCL),および自己回帰予測符号化を,最初に監督し,最後の2つを自己監督する。さらに,話者アイデンティティを訓練ターゲットとして使用するときの損失関数の範囲を調べた。活性化関数に関して,広く使用されたS字関数,修正線形ユニット(ReLU),およびGauss誤差線形ユニット(GELU)を研究した。GELUは,訓練ターゲットに関係なく,S字状と比較してTD-SVの誤り率を著しく低減できることを実験的に示した。3つの訓練目標の中で,TCLは最良であった。種々の損失関数の中で,交差エントロピー,結合-ソフトマックス,および焦点損失関数は,他のものより優れていた。最後に,異なるシステムのスコアレベル融合も誤り率を減少できる。実験は,短い発話を用いたTD-SVのRedDots2016チャレンジデータベースで行った。話者分類のために,よく知られたGauss混合モデル-普遍的背景モデル(GMM-UBM)とi-ベクトル技術を使用した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 

前のページに戻る