プレプリント
J-GLOBAL ID:202202207831586360   整理番号:21P0025464

深層ランダム化ニューラルネットワーク【JST・京大機械翻訳】

Deep Randomized Neural Networks
著者 (2件):
資料名:
発行年: 2020年02月27日  プレプリントサーバーでの情報更新日: 2021年02月02日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ランダム化ニューラルネットワークは,確率的または決定論的方法で接続の大部分が固定されている神経系の挙動を探索する。そのようなシステムの典型的な例は,隠れ層(s)への接続が初期化後に訓練されない多層ニューラルネットワークアーキテクチャから成る。重みの縮小集合上で操作する訓練アルゴリズムを制限することは,多数の興味深い特徴を持つランダム化ニューラルネットワークのクラスを本質的に特徴付ける。それらの中で,得られた学習プロセスの極端な効率は,完全に訓練されたアーキテクチャに関して顕著な利点である。さらに,関連する単純化にもかかわらず,ランダム化ニューラルシステムは,実際には顕著な特性を持ち,複数のドメインで最先端の結果を達成し,理論的には,神経アーキテクチャの固有特性(例えば隠れ層の接続の訓練の前に)を解析できる。近年,ランダム化ニューラルネットワークの研究は,深いアーキテクチャに向けて拡張され,ベクトルおよびより複雑なデータドメインにおいて,有効だが極めて効率的な深層学習モデルの設計への新しい研究方向を開く。この章は,ランダム化ニューラルネットワークの設計および解析に関するすべての主要な側面と,それらの近似能力に関する重要な結果のいくつかを調査した。特に,リカレントシステム(即ち,リザーバコンピューティングネットワーク)の場合に移動する前に,フィードフォワードネットワーク(即ち,ランダムベクトル関数リンクと等価モデル)と畳込みフィルタの文脈におけるランダム化ニューラルモデルの基礎を導入した。両者に対して,著者らは,深いランダム化システムのドメインにおける最近の結果,および(再発性モデルに対して)構造化ドメインへの応用に焦点を当てた。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
ニューロコンピュータ  ,  人工知能 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る