文献
J-GLOBAL ID:202202255931694297   整理番号:22A0798886

インターネットのエッジにおけるニューラルネットワークの動的ハード枝刈り【JST・京大機械翻訳】

Dynamic hard pruning of Neural Networks at the edge of the internet
著者 (4件):
資料名:
巻: 200  ページ: Null  発行年: 2022年 
JST資料番号: H0842A  ISSN: 1084-8045  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: イギリス (GBR)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ニューラルネットワーク(NN)は,いくつかの人工知能タスクにうまく適用されているが,しばしば過度に過剰パラメータ化されている。エッジ/フォッグコンピューティングにおいて,これは,それらの訓練を資源制約付きデバイスに禁止し,遠隔データセンタから局所制約デバイスへの分散知能の現在の傾向と対照的である。したがって,固定され,潜在的に小さいメモリ予算を持つ制約付きデバイスに対する効果的なNNモデルの訓練問題を検討した。重要なネットワーク圧縮を可能にする一方で,資源効率および性能効率の両者である技法を目標とした。著者らの動的ハードプルーニング(DynHP)技法は,訓練中にネットワークを漸増的に剪定し,モデル精度にわずかに寄与するニューロンを同定する。DynHPは,最終ニューラルネットワークの調整可能なサイズ縮小を可能にし,訓練中のNNメモリ占有率を低減する。自由メモリを動的バッチサイジングアプローチによって再利用し,ハード剪定戦略による精度劣化を相殺し,その収束と有効性を改善した。3つの公開データセットに関する再現可能な実験を通してDynHPの性能を評価し,それらを参照競合者と比較した。結果は,DynHPが,有意な性能低下(最大3.5%の付加的誤差w.r.t.競争者)なしで,NNを最大10回圧縮し,訓練記憶占有率を80%まで低減することを示した。Copyright 2022 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
計算機網  ,  通信網 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る