抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
古典的学習理論は,モデルのパラメータの数がデータと比較して大き過ぎるとき,モデルは過剰になり,一般化性能は悪化する。しかし,深いニューラルネットワーク(DNN)は,古典的学習理論の予測を超える,非常に大量のデータとモデルパラメータによる訓練により,高い一般化能力を達成できることが経験的に示されている。これの一つの欠点は,DNNの訓練が膨大な計算時間を必要とすることである。したがって,大規模並列化により訓練時間を短縮する必要がある。DNNの直接データ並列化は収束と一般化を劣化させる。本研究では,大規模バッチ訓練におけるこの一般化ギャップを解くための二次法を用いる可能性を調べた。これは,各ミニバッチがより統計的に安定になるという著者らの観察によって動機づけられ,したがって,曲率を考慮することの効果は,大規模なバッチ訓練においてより重要な役割を果たす。また,自然勾配法を適切に適応させることにより,正則化能力の欠如により,一般化性能がさらに劣化することを見出した。損失関数を平滑化することにより改良二次法を提案した。これにより二次法を一般化し,ミニバッチSGDを一般化することができる。Copyright 2019 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】