プレプリント
J-GLOBAL ID:202202205219857263   整理番号:22P0293400

正則化鏡降下による明示的正則化【JST・京大機械翻訳】

Explicit Regularization via Regularizer Mirror Descent
著者 (3件):
資料名:
発行年: 2022年02月22日  プレプリントサーバーでの情報更新日: 2022年02月22日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
訓練データを完全に補間するにもかかわらず,深層ニューラルネットワーク(DNN)は,学習アルゴリズムによって誘発された「陰的正則化」のために,しばしばかなりよく一般化できる。それにもかかわらず,”明示的正則化”(重み減衰)のような正則化の様々な形式は,特にデータが崩壊するとき,過剰適合を避けるためにしばしば用いられる。明示的な正則化,特に不明瞭な収束特性を有するいくつかの課題がある。確率的ミラー降下(SMD)アルゴリズムの収束特性に触発されて,正則化でDNNを訓練する新しい方法を提案した。高度に過パラメータ化したDNNでは,SMDは訓練データを補間し,重みの特定の潜在的関数を最小化する。RMDは,訓練損失の和と重みの凸正則化である標準コストから始まる。このコストを「増強」過パラメータ化ネットワークとSMD適用の可能性として解釈することは,RMDを生成する。結果として,RMDは,SMDの特性を継承し,このコストの極小者に対して,点「閉」におそらく収束する。RMDは確率的勾配降下(SGD)と重量減衰と計算的に比較可能であり,同じ方法で並列化できる。種々のレベルの崩壊による訓練セットに関する実験結果は,RMDの一般化性能がSGDと重量減衰の両方よりも著しくロバストで,著しく良く,それは重みのl_2ノルムを暗黙的かつ明示的に正則化することを示唆した。また,RMDは重みを所望の重みベクトルに正規化するために使用でき,これは特に連続学習に適切である。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  ニューロコンピュータ 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る