文献
J-GLOBAL ID:201702252916321195   整理番号:17A0241764

DBM対ELM:コンパクトなMLP(多層パーセプトロン)の効果的なトレーニングに関する研究【Powered by NICT】

DBM vs ELM: A study on effective training of compact MLP
著者 (4件):
資料名:
巻: 2016  号: SMC  ページ: 001291-001296  発行年: 2016年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
逆伝搬(BP),決定境界メーキング(DBM)アルゴリズムと極端学習機械(ELM)を用いて得られた多層パーセプトロン(MLP)の性能を比較し,携帯型/ウェアラブルコンピューティングデバイス(P/WCD)における実装に適していることを知る剤(無機)を開発するためのより良い方法を調べた。DBMであるP/WCDの実施に適するようにコンパクトで高性能学習モデルを誘導することが提案されている。DBMの基本的アイデアは,高性能モデルの決定境界(DB)に適合するデータを生成し,生成されたデータに基づくコンパクトモデルを誘導することである。著者らの研究では,サポートベクトルマシン(SVM)は高性能モデルとして使用され,単一隠れ層MLPはDBMアルゴリズムのためのコンパクトなモデルとして使用されている。ELMは近年ニューラルネットワークのための新しい学習法として注目されている。隠れ層は同調と利用可能な従来の勾配ベース学習法と比較して高速な訓練であることではないことが知られている。実験結果は,隠れニューロンの数は実験に用いた全てのデータベースのための小さい場合DBMの性能を三の訓練方法において最高であることを示した。DBMの精度は高得点に収束したことを意味し,隠れニューロンの数が少ない。,DBMは,コンパクトで高性能A-エージェントを開発するための最良のアルゴリズムであることを見出した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る