文献
J-GLOBAL ID:201702244393581717   整理番号:17A0243040

畳込みニューラルネットワークのニューロン刈りによるメモリ量削減とFPGA実現について

A Memory Reduction with Neuron Pruning for a Convolutional Neural Network: Its FPGA Realization
著者 (4件):
資料名:
巻: 116  号: 415(VLD2016 70-101)  ページ: 55-60  発行年: 2017年01月16日 
JST資料番号: S0532B  ISSN: 0913-5685  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: 日本 (JPN)  言語: 日本語 (JA)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
画像識別等の組込み機器では学習済み深層畳み込みニューラルネットワーク(CNN:Deep Convolutional Neural Network)の識別高速化と低消費電力化が求められている。一般的なCNNは前半部が畳込み層,後半部がフル結合層で構成されている。先行研究より,畳込み層では積和演算部がボトルネックであり,フル結合層ではメモリアクセスがボトルネックである。本論文では,フル結合層ではニューロンを刈ることで,重みを格納したメモリを削減し,フル結合層のメモリアクセスを高速化する。従って,FPGAのオンチップメモリ上にフル結合層の重みを全て格納でき,メモリアクセス問題を解決できる。また,本論文ではFPGAのオンチップメモリと組み合わせた高速なフル結合層回路を提案する。提案する閾値ニューロン刈りにより,元の認識精度に対して99%同等な場合はVGG-11におけるフル結合層のニューロンを76.4%削減でき,95%認識精度を許容できればニューロン数を91.7%削減できた。ニューロン刈りを行ったフル結合層をDigilent社NetFPGA-1G-CMLボードに実装し,ARMプロセッサ(CPU),Jetson TK1(GPU)と比較を行った結果,遅延時間に関してはFPGAはCPUよりも219.0倍高速であり,GPUよりも12.5倍高速であった。また,消費電力性能効率(Performance/Power)に関してはCPUよりも87.69倍優れており,GPUよりも12.51倍優れていた。(著者抄録)
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (4件):
分類
JSTが定めた文献の分類名称とコードです
半導体集積回路  ,  人工知能  ,  パターン認識  ,  図形・画像処理一般 
引用文献 (20件):
もっと見る
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る