文献
J-GLOBAL ID:201802210271392472   整理番号:18A1508393

低資源ASRのためのDNNアンサンブル音響モデルのクロスエントロピートレーニング【JST・京大機械翻訳】

Cross-Entropy Training of DNN Ensemble Acoustic Models for Low-Resource ASR
著者 (2件):
資料名:
巻: 26  号: 11  ページ: 1991-2001  発行年: 2018年 
JST資料番号: W0508B  ISSN: 2329-9290  CODEN: ITASFA  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深いニューラルネットワーク(DNNs)は,特に低資源言語に対して,言語外データの利用において大きな有望性を示している。共通の傾向は,様々なソース言語からデータを融合し,多言語DNNを訓練し,次に,低資源ターゲット言語のための言語独立特徴抽出器として隠れ層を再利用することである。一方,様々な言語からの多くのデータを用いることは,より良くより一般的な多言語DNNをもたらすというコンセンサスがあるが,ターゲット言語に類似したソース言語のみを用いることは効果的であることが証明されている。本研究では,すべての利用可能な訓練データを採用し,同時に個々のソース言語から相補的情報を利用する多言語DNN訓練のための新しいフレームワークを提案した。この目的に向けて,一つの一般主義者と多くの専門家とのアンサンブルの考え方について述べた。一般主義者は,すべての利用可能な多言語データで訓練された多言語DNN音響モデルから導出される。専門家は個別にソース言語から導いたDNNsである。次に,集合における構成要素を重み付き平均化方式を用いて結合して,そこでは,組合せ重みを交差エントロピー目的関数を最小にするために訓練した。このフレームワークでは,構成要素間の相補的な情報を求めるが,少なくともベースラインに等しい性能を得ることができる。さらに,以前のよく知られたシステム組合せ方式と異なり,復号化の間に1つのモデルだけが必要である。著者らは,2つの組合せ方法論を成功裏に調べて,多言語GlobalPhoneデータセットを用いて,異なるシナリオにおけるそれらの有用性を実証した。特に,音声認識システムは,提案した戦略から低資源環境利益で開発されることが観察された。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る