文献
J-GLOBAL ID:201802237898102151   整理番号:18A1650816

1層フィードフォワード神経回路網のための逐次非反復学習法【JST・京大機械翻訳】

An incremental non-iterative learning method for one-layer feedforward neural networks
著者 (3件):
資料名:
巻: 70  ページ: 951-958  発行年: 2018年 
JST資料番号: W2175A  ISSN: 1568-4946  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
機械学習文献において,特に人工ニューラルネットワークを参照する文献において,ほとんどの方法は反復的であり,バッチモードで操作される。しかし,多くの標準アルゴリズムは,新しい実世界アプリケーションから得られた新しい大規模データ集合を効率的に管理するのに適していない。これらの課題に対処するための新しい提案は,主に増分または分散学習アルゴリズムに基づく反復アプローチである。しかしながら,最先端技術は,非反復アプローチに基づく学習法がほとんどなく,これらの新しい挑戦により,より効率的に扱うことにおいて,反復モデルよりも利点がある。隠れ層を持たない一層フィードフォワード神経回路網のための非反復,増分および超パラメータフリー学習法を開発した。この方法は,データが変数よりも多くのサンプルを含むか,または逆のものにかかわらず,ネットワークの最適パラメータを効率的に得る。これは,出力活性化関数の前に誤差を測定し,各データ点におけるこれらの関数の勾配によりそれらをスケールする二乗損失関数を用いることによりこれを行う。結果は,ネットワークの重みを得る線形方程式のシステムであり,さらに特異値分解を用いて変換される。アルゴリズムの挙動を解析し,その性能とスケーリング特性を他の最先端手法と比較した。実験結果は,提案した方法が広範囲の分類問題を適切に解決し,大規模タスクを効率的に処理できることを実証した。Copyright 2018 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る