抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究では,深層ニューラルネットワークを訓練するとき,メモリ消費を一定の複雑さに低減する方法を示した。アルゴリズムは,逆伝搬(BP)のより生物学的に妥当な代替案に基づいている:直接フィードバックアラインメント(DFA)とフィードバックアラインメント(FA),それは誤差を伝播するためにランダム行列を使用する。提案方法,メモリ効率の良い直接フィードバックアラインメント(MEM-DFA)は,DFAにおける層のより高い独立性を使用して,標準BP,FA,およびDFAと異なり,一度すべての活性化ベクターで保存を避けることができる。したがって,このアルゴリズムのメモリ利用は,ニューラルネットワークの層数に関係なく一定である。方法は,1つの余分なフォワードパスの一定の因子だけによって,計算コストを増加させる。MEM-DFA,BP,FA,およびDFAを,種々のニューラルネットワークモデルのMNISTとCIFAR-10データセットの記憶プロファイルと共に評価した。著者らの実験結果は,著者らの理論的結果と一致し,他のアルゴリズムと比較して,MEM-DFAのメモリコストの大幅な減少を示した。【JST・京大機械翻訳】