文献
J-GLOBAL ID:202102210736450772   整理番号:21A2698474

極端学習機械のランダム係数を予訓練するための修正バッチ固有塑性法【JST・京大機械翻訳】

A modified batch intrinsic plasticity method for pre-training the random coefficients of extreme learning machines
著者 (2件):
資料名:
巻: 445  ページ: Null  発行年: 2021年 
JST資料番号: B0860A  ISSN: 0021-9991  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
極端学習機械(ELM)において,隠れ層係数はランダムに設定され固定され,一方,ニューラルネットワークの出力層係数は最小二乗法によって計算される。ELMにおけるランダム割当係数はその性能と精度に大きく影響することが知られている。本論文では,ELMニューラルネットワークにおけるランダム係数を予訓練するための修正バッチ固有塑性(modBIP)法を提案した。現在の方法は,バッチ固有塑性(BIP)方法,すなわちニューラルネットワークのあらゆるノードにおける情報伝送を強化することによって,同じ原理に基づいて考案した。それは,2つの顕著な側面においてBIPとは異なった。第1に,modBIPは,そのアルゴリズムにおける活性化機能を含んでいない,そして,それをニューラルネットワークにおける任意の活性化関数で適用することができる。対照的に,BIPは,その構築における活性化関数の逆数を採用し,活性化関数が反転可能(または単調)であることを必要とする。modBIP法は,しばしば使用される非単調な活性化関数(例えば,Gauss,スワシ,Gauss誤差線形ユニット,および放射状基底型関数)で動作することができ,BIPは崩壊する。第2に,ModBIPは最小サイズのランダム間隔でターゲットサンプルを生成し,ELMと組み合わせたとき,高精度な計算結果をもたらす。組合せELM/modBIP法は,数値シミュレーションにおいてELM/BIPよりも著しく正確である。部分微分方程式による関数近似と境界/初期値問題に対する浅いおよび深いニューラルネットワークを用いて,増幅器数値実験を示した。それらは,複合ELM/modBIP法が高精度シミュレーション結果を生成し,その精度がニューラルネットワークにおけるランダム係数初期化に鈍感であることを示した。これは,ランダム係数の予訓練のないELM結果と鋭く対照的である。Copyright 2021 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
数値計算 

前のページに戻る