抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
Bayes学習の前のモデルとしての深いGaussプロセス(DGP)は,関数構成における表現力を直感的に活用する。DGPsは多様なモデリング能力も提供するが,潜在関数空間における限界化は扱いにくいため,推論は挑戦的である。Bochnerの定理を用いて,二乗指数カーネルを有するDGPを,ランダム特徴層,正弦および余弦活性化ユニットおよびランダム重み層から成る深い三角ネットワークとして見ることができた。ボトルネックを持つ広い極限において,重み空間ビューは関数空間で以前に得られた同じ有効共分散関数を生成することを示した。また,ネットワークパラメータ上の事前分布を変えることは,異なるカーネルの採用と等価である。そのように,DGPsは,正確な最大事後推定が得られる,深いボトルネックトリッグネットワークに翻訳できる。興味深いことに,ネットワーク表現はDGPの神経正接カーネルの研究を可能にし,それはまた,難治性予測分布の平均を明らかにするかもしれない。統計的に,浅いネットワークとは異なり,有限幅の深いネットワークは,制限カーネルから逸脱する共分散を持ち,内部および外部幅は,特徴学習において異なる役割を果たす可能性がある。数値シミュレーションは,著者らの知見を支持するために存在する。【JST・京大機械翻訳】