文献
J-GLOBAL ID:202002236418642641   整理番号:20A2283282

GCN-LRP説明:グラフ畳込みネットワークの潜在注意の探索【JST・京大機械翻訳】

GCN-LRP explanation: exploring latent attention of graph convolutional networks
著者 (3件):
資料名:
巻: 2020  号: IJCNN  ページ: 1-8  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
グラフ畳込みネットワーク(GCN)は,ノード分類のような様々な学習タスクに関する多くのグラフデータにうまく適用されてきた。しかし,GCNの内部論理と決定パターンの理解は限られている。本論文では,GCNsの潜在パターンを探索するために,GCNs,すなわちGCN-LRPのための層ごとの関連性伝播ベースの説明法を提案した。次に,著者らは,GCN-LRP説明によるノード分類タスクのために3つのよく知られた引用ネットワークデータセットと合成グラフデータセットを使用して,GCNがノードとその隣接ノードから情報を集めるとき,実験的に潜在的注意を同定した。(i)GCNは,その近傍と比較するとき,分類されたノードにより多くの注意を払った。(ii)GCNは,すべての隣接ノードに等しく注意を払わない,そして,少数の隣接ノードは,他者より多くの注意を受信した。さらに,著者らはさらに理論的に解析して,発見した。(i)潜在的注意はGCNの再帰的凝集から来る;(ii)隣接ノードは,分類されたノードと十分な隣接を共有するが,他の近傍よりも多くの注意を受信する。(iii)潜在的注意は,モデル訓練によってほとんど変化しなかった。また,潜在的注意によって導入されたGCNの長所と限界,およびGCNsによるグラフデータ学習に対する著者らの知見の意味を議論した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る