抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ディープニューラルネットワークは非常に高い容量を持つ学習モデル,過剰適合する傾向がある。ドロップアウト,DropConnect,および重み減衰のような多くの正則化技術はすべて,(Wan.,2013),それらのそれぞれのモデル(Srivastava.,2014)の容量(KroghとHertz,1992)を減少させることによって過剰適合の問題を解決することを試みた。本論文では,モデルの能力を犠牲にすることなく,過剰適合減らす方法において学習問題を誘導する正則化の新しい形式を導入した。モデルは訓練の初期段階でする誤りは学習問題に関する情報を持っている。加重平均実ラベルの訓練の現在の時代,および指数関数平均過去ソフトターゲットの標識を調整することにより,モデルの能力を減少させる必ずしもないDropoutと同様に強力な正則化スキームを達成し,学習問題の複雑さを単純化した。SoftTarget正則化はいろいろな神経回路網アーキテクチャにおける有効なツールであることが証明された。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】