文献
J-GLOBAL ID:201702292223396928   整理番号:17A1257383

スパース正則化によるReLU活性化をもつセルラニューラルネットワークのための学習の改善【Powered by NICT】

Improvement of learning for CNN with ReLU activation by sparse regularization
著者 (2件):
資料名:
巻: 2017  号: IJCNN  ページ: 2684-2691  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,隠れ層における整流線形単位(ReLU)畳込みニューラルネットワーク(CNN)のためのスパース正則化を紹介した。ReLUの入力のためのスパース性を導入することにより,学習過程におけるReLUの入力を零に効果である。ReLUの出力の不必要な増加を防ぐことができることが期待される。これは回分正規化と同様の効果である。ReLUの入力の不必要な負の値は,スパース性を導入することによって軽減することができた。これは訓練されたネットワークの一般化を改善することができる。提案した方法とバッチ正規化間の関係あるいは指数関数的線形ユニット(ELU)のような活性化関数の変化についても考察した。提案した方法の有効性を実験により確認した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る