文献
J-GLOBAL ID:202002263717780021   整理番号:20A0385090

確率勾配降下最適化アルゴリズムのための低誤差限界:低速および高速減衰学習速度に対する鋭い収束率【JST・京大機械翻訳】

Lower error bounds for the stochastic gradient descent optimization algorithm: Sharp convergence rates for slowly and fast decaying learning rates
著者 (2件):
資料名:
巻: 57  ページ: Null  発行年: 2020年 
JST資料番号: T0513A  ISSN: 0885-064X  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
確率的勾配降下(SGD)最適化アルゴリズムは,機械学習において生じる確率的最適化問題の解,特に深い学習応用に用いられる中心的ツールの一つである。従って,SGDの収束挙動を解析することは重要である。本論文では,単純な二次確率最適化問題を考察し,学習速度(γnν)n∈Nによる関連SGDプロセスの平均二乗誤差に対して,基本的により低い上限と上限をマッチングする,すべてのγ,ν∈(0,∞)に対して確立した。これにより,学習速度の選択に依存してSGD法の平均二乗収束速度を正確に定量化できる。Copyright 2020 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  パターン認識 

前のページに戻る