抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
分類タスクのための深層ニューラルネットワークを訓練するとき,興味深い経験的現象は,(i)クラス平均と最後の層分類器がスケーリングまでの単純性等角型Tightフレーム(ETF)の頂点にすべて崩壊し,そして(ii)最後の層活性化の交差例クラス内変動がゼロに崩壊する,最後の層分類器と特徴において広く観察された。この現象は,損失関数の選択に関係なく起こると思われる神経崩壊(NC)と呼ばれる。本研究では,平均2乗誤差(MSE)損失の下でNCを正当化し,そこでは,最近の経験的証拠が,それが,デファクトクロスエントロピー損失よりも,同等か,さらに優れていることを示す。簡易無制約特徴モデルの下で,著者らは,バニラ非凸MSE損失のための最初のグローバル景観解析を提供して,(唯一の!)グローバル最小化器が,神経崩壊解であり,一方,他のすべての臨界点が,Hessianが負の曲率方向を示す厳密な鞍であることを示した。さらに,NC解周辺の最適化景観のプロービングによる再スケールMSE損失の利用を正当化し,景観が再スケーリングハイパーパラメータの調整により改善できることを示した。最後に,著者らの理論的発見を実際のネットワークアーキテクチャ上で実験的に検証した。【JST・京大機械翻訳】