文献
J-GLOBAL ID:202202270171775345   整理番号:22A1163881

カリキュラム二分ランキング重み付きバイナリクロスエントロピーによるエンドツーエンド話者検証【JST・京大機械翻訳】

End-to-End Speaker Verification via Curriculum Bipartite Ranking Weighted Binary Cross-Entropy
著者 (4件):
資料名:
巻: 30  ページ: 1330-1344  発行年: 2022年 
JST資料番号: W0508B  ISSN: 2329-9290  CODEN: ITASFA  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
エンドツーエンド話者検証は,二値(即ち,ターゲット対非ターゲット)分類問題として定式化された発話のペア間の類似性スコアを直接推定することを通して検証を達成した。段階ごとの方法とは異なり,エンドツーエンド検証手法は,評価メトリックを直接最適化し,そして,その出力層は,パラメータフリーであり,そしてそれは,大きなコンピューティングおよびメモリ資源を節約することができた。しかし,それは2つの重要な困難に直面している。第一のものは,非常に不均衡な試行,すなわち,目標試行の回数が,非目標試験のものよりはるかに小さい,そして,もう片方は,訓練におけるモデルの改善に役立たない容易な試行を扱う方法に関するものである。これら2つの問題を回避するため,本論文では,損失関数のバイナリ交差エントロピー(BCE)型を提案し,エンドツーエンド話者検証のために提案した損失関数に基づく深層ニューラルネットワーク(DNN)モデルを訓練する方法を提案した。訓練プロセスは,試行不均衡問題とカリキュラム学習法を取り扱うために二部ランキング法を採用して,収束過程に沿って徐々にハードからハードなものまで非目標試験を選択することによって,モデルの訓練安定性と性能の両方を改善するのを助ける。訓練プロセスは二部ランキングとカリキュラム学習を採用し,損失関数は一般化BCE形式であるので,著者らは新しいアプローチカリキュラム二分割加重バイナリ交差エントロピー(CBRW-BCE)を名付ける。実験結果は,CBRW-BCEで訓練されたモデルが最先端の性能を達成するだけでなく,よく較正されることを示した。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
音声処理  ,  パターン認識 

前のページに戻る