抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
広範な経験的証拠は,広範囲の異なる学習方法とデータセットに対して,リスク曲線がモデルサイズの関数として二重日光(DD)傾向を示すことを明らかにした。最近の論文[Zeyu,Kammun,Thrampouldis,2019]において,著者らはバイナリ線形分類モデルを研究して,ロジスティック損失による勾配降下(GD)の試験誤差がDDを受けることを示した。本論文では,これらの結果を正方形損失でGDに拡張することにより補完する。DD現象が持続するが,ロジスティック損失と比較していくつかの違いも同定することを示した。これは,DD曲線の重要な特徴(それらの遷移閾値と大域的極小値など)が訓練データと学習アルゴリズムの両方に依存することを強調した。さらに,訓練集合のサイズに対するDD曲線の依存性を調べた。著者らの以前の研究と同様に,著者らの結果は解析的である:Gauss特徴の下で試験誤差に対する鋭い漸近線を最初に導出することによってDD曲線をプロットする。Albeit単純,モデルはDD特徴の原則的研究を可能にし,その成果はより複雑な学習タスクで生じる関連する経験的知見を理論的に裏付けている。【JST・京大機械翻訳】