文献
J-GLOBAL ID:202102231439743835   整理番号:21A0152180

エネルギー効率の良い深層ニューラルネットワークのためのゼロキープフィルタ枝刈り【JST・京大機械翻訳】

Zero-Keep Filter Pruning for Energy Efficient Deep Neural Network
著者 (5件):
資料名:
巻: 2020  号: ICTC  ページ: 1288-1292  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近の深層学習モデルは高精度と高速推論時間を達成するのに成功したが,それらは多数のパラメータのために高性能計算資源を必要とする。しかし,全てのシステムは高性能ハードウェアを持たない。時々,深い学習モデルは,IoTデバイスやスマートフォンのようなエッジデバイスで実行する必要がある。エッジデバイスは限られた性能とエネルギー消費を持つ。これらのデバイスでは,計算量を減らす必要がある。プラニングは,この問題を解決するためのよく知られたアプローチの1つである。本研究では,エネルギー効率の良い深層ニューラルネットワークのための「ゼロケープフィルタ剪定」を提案した。提案方法は,フィルタのゼロ要素数をゼロに置換し,ゼロの最低数を持つフィルタを剪定することにより,フィルタ中のゼロ要素数を最大化する。従来手法では,ゼロの最も高い数を持つフィルタは,一般に刈り取られる。その結果,このゼロケープフィルタ剪定を通して,モデル中に多くのゼロを持つフィルタを持つことができた。ランダムフィルタ剪定と提案した方法の結果を比較し,本手法が,限界精度低下ではるかに少ない非零要素でより良い性能を示すことを証明した。また,残されたフィルタの数をランダムで,剪定後に提案した剪定法と比較した。最後に,エネルギー消費を加速および低減するためにゼロで乗算をスキップする,可能な乗算器アーキテクチャ,ゼロスキップ乗算器回路を議論した。Copyright 2021 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (5件):
分類
JSTが定めた文献の分類名称とコードです
符号理論  ,  NMR一般  ,  専用演算制御装置  ,  図形・画像処理一般  ,  音声処理 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る