抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
グラフインスタンス表現学習において,多様なグラフインスタンスサイズとグラフノード次数無し特性は,既存の表現学習モデルが作業に失敗する主要な障害であった。本論文では,グラフインスタンス表現学習に対するGRAPH-BERTの有効性を検討し,これはノード表現学習タスクに対して当初設計した。新しい問題設定にGRAPH-BERTを適応させるために,本論文では,それの代わりに分割アーキテクチャでそれを再設計して,それはまた,本論文における参照単純性のためにSEG-BERT(拡張GRAPH-BERT)として呼んだ。SEG-BERTはノード次数変動入力や機能成分を全く含まず,グラフノード次数レス特性を自然に扱うことができる。さらに,SEG-BERTは分割アーキテクチャを持ち,グラフインスタンスサイズ,すなわち,フル入力,パディング/プルーニングおよびセグメントシフトを統一するために3つの異なる戦略を導入する。SEG-BERTは教師なし方法で事前訓練可能であり,それはさらに直接あるいは必要な微調整で新しいタスクに転送できる。7つのグラフインスタンスベンチマークデータセットに関する実験でSEG-BERTの有効性をテストして,SEG-BERTは,それらの6つに関して,有意な性能優位性によって比較方法を外形することができた。【JST・京大機械翻訳】