抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
指数不等式に基づく一般的手法を提示し,ランダム化学習アルゴリズムの一般化誤差に関する限界を導いた。このアプローチを用いて,PAC-Bayesと単一ドローシナリオの両方に対して,そのテール確率に関する限界と同様に平均一般化誤差に関する限界を提供した。特に,サブGauss損失関数の場合,訓練データと出力仮説の間の情報密度に依存する新しい限界を得た。適切に弱めるとき,これらの限界は,文献で利用可能な多くの情報理論的限界を回復する。また,学習アルゴリズムが利用可能な訓練データのランダムに選択された部分集合に依存する,SteinkeとZakynthinou(2020)によって最近導入された設定に,提案した指数的品質アプローチを拡張した。この設定のために,著者らは,すべての訓練データを与えて,出力仮説と部分集合選択を決定するランダム変数の間の条件付き情報密度に関して,有界損失関数の限界を提示した。著者らのアプローチを通して,SteinkeとZakynthinou(2020)によって提示された平均一般化限界を復元し,それをPAC-Bayesと単一ドローシナリオに拡張した。単一ドローシナリオでは,条件付きα-相互情報と条件付き最大漏洩に関して新しい限界も得た。【JST・京大機械翻訳】