抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
様々な学習タスクを解くための深層学習モデルの膨大な経験的成功にもかかわらず,それらの一般化能力の理論的理解は非常に限られている。VC次元またはRademacher複雑性のようなツールに基づく古典的一般化限界は,これまで,深いモデルに対して不適当であり,これらの技術が,最も理想的な設定(Nagarajan&Kolter,2019)でさえ,厳しい限界を生じることは疑わしい。本研究では,いわゆるカーネル領域における深層モデルの一般化能力を測定するために,leave-one-out(LOO)誤差の概念を再考した。統計で普及している間,LOO誤差は深層学習の文脈で大きく見落とされてきた。ニューラルネットワークとカーネル学習の間の最近確立された接続で構築することにより,筆者らは,leave-one-out誤差に対する閉形式表現を活用し,試験誤差に対する効率的なプロキシへのアクセスを与えた。理論的および経験的に,leave-one-out誤差が,二重降下,ランダムラベルまたは移動学習のような一般化理論における様々な現象を捉えることができることを示した。従って,本研究は,leave-one-out誤差が,カーネル領域における深層ニューラルネットワークの一般化能力を推定するための扱いやすい方法を提供し,一般化の分野でのポテンシャル,新しい研究方向へのドアを開けることを示した。【JST・京大機械翻訳】