文献
J-GLOBAL ID:202002214655216025   整理番号:20A1484613

非定常データストリームの連続学習のための深層ニューロファジィシステムの増分構築【JST・京大機械翻訳】

An Incremental Construction of Deep Neuro Fuzzy System for Continual Learning of Nonstationary Data Streams
著者 (3件):
資料名:
巻: 28  号:ページ: 1315-1328  発行年: 2020年 
JST資料番号: W0509A  ISSN: 1063-6706  CODEN: IEFSEV  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
既存のファジィニューラルネットワーク(FNN)は,深い構造のものより低い一般化電力を有する浅いネットワーク構成の下で主に開発されている。本論文では,新しい自己組織化深層FNN,すなわち,深い進化ファジィニューラルネットワーク(DEVFNN)を提案した。ファジィルールは,データストリームから自動的に抽出でき,それらが寿命中に限られた役割を演ずるならば除去される。ネットワークの構造を,ドリフト検出法を用いて追加層を積み重ねることによって,要求に関して深めることができて,それは共変量ドリフト,入力空間の変化を検出するだけではなく,また,実際のドリフト,特徴空間とターゲット空間の両方の動的変化を正確に識別した。DEVFNNは,最近開発したアルゴリズム,すなわち,一般的な分類器が隠れ層を駆動する特徴増強概念を介して,積層一般化原理の下で開発された。それは,入力特性の異なる部分集合を誘発するために入力属性の活性化と不活性化を制御する自動特徴選択法を備えている。深いネットワーク構造構築における特徴増強アプローチの性質による入力空間の次元の制御可能な成長を防止するために,隠れ層併合の概念を用いて,深いネットワーク簡素化手順を提唱した。DEVFNNはサンプルワイズ方式で動作し,データストリームアプリケーションに適合する。DEVFNNの有効性を,事前試験-テネ-トレインプロトコルの下で非定常特性を有する7つのデータセットを用いて徹底的に評価した。DEVFNNが分類精度の改善を示す4つの一般的な連続学習アルゴリズムとその浅い対応物と比較した。さらに,ドリフト検出法の概念はネットワーク構造の深さを制御する有効なツールであり,一方隠れ層併合シナリオは一般化性能の無視できる妥協で深いネットワークのネットワーク複雑性を単純化できることも示した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (4件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  自然語処理  ,  人工知能  ,  音声処理 

前のページに戻る