文献
J-GLOBAL ID:201802246073221761   整理番号:18A0656551

FPGA上の二値化ディープニューラルネットワークの閾値ニューロンプルーニング

A Threshold Neuron Pruning for a Binarized Deep Neural Network on an FPGA
著者 (3件):
資料名:
巻: E101.D  号:ページ: 376-386(J-STAGE)  発行年: 2018年 
JST資料番号: U0469A  ISSN: 1745-1361  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 日本 (JPN)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
組込みシステムのために予め訓練されたディープ畳込みニューラルネットワーク(CNN)のためには,高速で低消費電力が要求される。CNNの前者では,それは畳み込み層から成り,後者では完全接続層からなる。畳込み層では,多重積算動作はボトルネックであり,完全接続層ではメモリアクセスがボトルネックである。2値化CNNは,FPGA上に多数の積和回路を実現するために提案されており,畳込み層は高シード演算で行うことができる。しかし,完全接続層に2値化を適用しても,メモリの量は依然としてボトルネックである。本論文では,重みメモリの大部分を除去するニューロンプルーニング手法を提案し,二値化CNN上の完全接続層に適用する。その場合,重みメモリはFPGA上のオンチップメモリにより実現されるため,高速なメモリアクセスが可能となる。さらにメモリサイズを縮小するために,ニューロンプルーニング後のCNNの再学習を適用する。本論文では,二値化二次元畳込み層のためのストリーミング回路を提案しながら,二値化完全接続層のための順次入力並列出力完全接続層回路を提案する。実験結果は,ニューロンプルーニングによって,VGG-11 CNN上の完全に連結された層と同様に,99%のベースライン精度を維持しながらニューロンの数が39.8%減少したことを示した。XilinxのZynq ZedboardでニューロンプルーニングCNNを実装した。ARM Cortex-A57と比較して1773.0倍速く,消費電力は3.1倍,電力効率あたりの性能は5781.3倍向上した。また,Maxwell GPUと比較して11.1倍速く,消費電力が7.7倍,消費電力効率が84.1倍向上した。したがって,FPGA上の2進化されたCNNは組込みシステムに適している。(翻訳著者抄録)
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
ディジタル計算機方式一般  ,  集積回路一般  ,  人工知能 
引用文献 (35件):
もっと見る
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る