文献
J-GLOBAL ID:201802229123529924   整理番号:18A2086562

グラフと再帰型ニューラルネットワークのVapnik-chervonenkis次元

The Vapnik-Chervonenkis dimension of graph and recursive neural networks
著者 (3件):
資料名:
巻: 108  ページ: 248-259  発行年: 2018年12月 
JST資料番号: T0698A  ISSN: 0893-6080  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: イギリス (GBR)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
Vapnik-Chervonenkis次元(VC-dim)は分類モデルのサンプル学習の複雑さを特徴づけ,学習法の汎化能力の指標としてしばしば用いられている。VC-dimは通常のフィードフォワードニューラルネットワークで研究されているが,グラフニューラルネットワーク(GNN)や再帰型ニューラルネットワーク(RecNN)についてはまだ研究される必要がある。本論文は,GNNとRecNNのVC-dimの成長の次数に関する上界を提示した。GNNとRecNNは,グラフとして与えられる入力を処理できる新しい種類のニューラルネットワークモデルから来ている。グラフは特徴ベクトル間の依存性または関係を表現する能力によって,ベクトルや数列の表現力を一般化するデータ構造である。以前にベクトルに処理が限定されるニューラルネットワークのVC-dimと比較して,数列を処理するリカレントニューラルネットワークの能力がVC-dimを増加させることを示した。グラフは数列よりも一般的な形式であるので,これがGNNとRecNNのVC次元にどのように影響するかという疑問が生じる。本論文における主な発見はGNNとRecNNに対するVC-dimに関する上界が,再帰型ニューラルネットワークに対する上界に匹敵することである。また,結果はそのようなモデルの汎化能力が接続ノードの数とともに増加することを示唆した。Copyright 2019 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
ニューロコンピュータ  ,  システム・制御理論一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る