文献
J-GLOBAL ID:201702266691745435   整理番号:17A1650875

音声認識のための様々な活性化関数の調査研究【Powered by NICT】

Investigative study of various activation functions for speech recognition
著者 (2件):
資料名:
巻: 2017  号: NCC  ページ: 1-5  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層学習法における重要な発展は,より深いネットワークを訓練する能力で達成された。音声認識システムの性能は,深い学習法を用いて大幅に改善された。深学習における開発の大部分は新しい活性化関数と対応する初期の開発と関連している。整流線形単位(ReLU)の開発は,音声認識のための教師つき深層学習法の使用に革命をもたらした。最近,活性化関数漏れReLU(LReLU),パラメトリックReLU(PReLU),指数線形単位(ELU)とパラメトリックELU(PELU)の開発における研究注目を集めている。本研究では,音声認識システムの様々な活性化関数の影響を研究することを目的としている。本研究では,隠れMarkovモデル深部ニューラルネットワーク(HMM DNN)に基づく音声認識を使用した,異なる活性化関数を用いた深層ニューラルネットワークは,隠れMarkovモデルの放出確率を得るために採用した。本研究では,二つのデータセット,TIMITおよびWSJは異なるサイズのデータセットを用いた種々の音声認識システムの挙動を研究するために採用した。研究の間に,ReLUネットワークの性能は,小さいサイズのデータセット(すなわち,TIMITデータセット)の他のネットワークに比べて優れていることを観測した。十分に大きいサイズ(すなわち,WSJ)のデータセットに対してELUネットワークの性能は他のネットワークよりも優れていた。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る