抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,階層が広いだけでなく,対象データ数,モデルサイズが非常に大きい深層学習を解説し,分散並列処理での実現方法について述べた。まず,マシン並列による分散並列計算として多くの機械学習手法を実現しているMapReduceは,逐次的な最適化を行う場合の同期処理のオーバヘッドが大きいのでGoogleのDistBeliefを紹介した。DistBeliefでは各訓練事例ごとに確率的勾配降下法(SGD)を用いて更新を行うオンライン学習Downpour SGDと,すべての訓練事例をもとに更新を行うバッチ学習Sandblaster L-BFGS(Limited-memory Broyden-Fletcher-Goldfarb-Shanno)をサポートする。また,GPU(Graphical Processing Unit)を利用して大規模ニューラルネットを実現する手法や,モデル自身を変える高速化ReLU(Rectified Linear Units)について述べた。さらに,より精緻な学習の制御技術として過学習を防ぐDropOut,複数層や指定型分布族以外の活性化関数を利用する場合に対するMaxOutを解説した。最後に,実装の正しさをチェックする方法,ニューラルネットのハイパーパラメータの最適化におけるRandom Searchの有効性,SGDによる最適化における学習率の調整などについて述べた。