文献
J-GLOBAL ID:201802265222722247   整理番号:18A1770926

単一チャネルマルチ話者音声認識のための順列不変訓練における知識移転【JST・京大機械翻訳】

Knowledge Transfer in Permutation Invariant Training for Single-Channel Multi-Talker Speech Recognition
著者 (3件):
資料名:
巻: 2018  号: ICASSP  ページ: 571-5718  発行年: 2018年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,教師-学生訓練と置換不変訓練(PIT)を単一チャネルマルチ話者音声認識のために結合するフレームワークを提案した。モデルを圧縮することを目的とする従来の教師-学生訓練法のほとんどと対照的に,提案した方法は,PITフレームワークにおけるマルチ話者モデルを改善するために,単一話者モデルから知識を蒸留する。教師と学生ネットワークへの入力は,それぞれ単一話者のクリーン音声とマルチ話者混合音声である。知識は教師により生成されたソフトラベルを通して学生に転送される。さらに,複数の教師の集合を,システムをさらに改善するために,漸進的な訓練方式を用いて利用した。このフレームワークにおいて,データ増強の利点を利用することは容易であり,非転写データのみを用いたマルチ話者音声認識のためのドメイン適応を実行する。提案した技術を人工的に混合した2話者AMI音声データで評価した。実験結果は,教師-学生訓練がベースラインPITモデルに対して相対的20%まで単語誤り率(WER)をカットできることを示した。また,人工的に混合したWSZOコーパス上での教師なし領域適応法を評価し,AMI PITモデルに対して相対的に30%のWER低減を達成した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 

前のページに戻る