プレプリント
J-GLOBAL ID:202202217168318816   整理番号:22P0098200

FPGA上の構造化スパース畳込みニューラルネットワークのための効率的なハードウェアアクセラレータ【JST・京大機械翻訳】

An Efficient Hardware Accelerator for Structured Sparse Convolutional Neural Networks on FPGAs
著者 (6件):
資料名:
発行年: 2020年01月07日  プレプリントサーバーでの情報更新日: 2020年01月07日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深い畳込みニューラルネットワーク(CNN)は,広い範囲の応用において最先端の性能を達成した。しかし,複雑な人工知能(AI)タスクには,通常計算を消費するより深いCNNモデルが広く必要とされている。剪定のようなネットワーク圧縮に関する最近の研究進展は,計算負荷を緩和するための有望な方向として浮上しているが,既存の加速器は,剪定によって引き起こされた不規則性のために,レバーグスパース性の利点を完全に利用することから,まだ防止されている。他方,フィールドプログラマブルゲートアレイ(FPGA)はCNN推論加速のための有望なハードウェアプラットフォームと見なされてきた。しかしながら,ほとんどの既存のFPGA加速器は,高密度CNNに焦点を合わせ,不規則性問題に対処することができない。本論文では,不必要な計算を避けるために,ゼロ重みでエネルギーを最小化するために,データ統計を利用して,マルチプライとアキュムレート(MAC)を処理するサイクルをスキップするスパースワイズデータフローを提案した。提案したスパースワイズデータフローは,低帯域幅要求と高データ共有をもたらす。次に,提案したデータフローに従って,スパース重みと入力活性化の間の指数に整合できるベクトル発生器モジュール(VGM)を含むFPGA加速器を設計した。実験結果は,著者らの実装が,それぞれ,Xilinx ZCU102上で,AlexNetとVGG-16に対して,987のimag/sと48のimag/sの性能を達成し,以前のCNN FPGA加速器に対して,1.5xから6.7xの高速化と2.0xから6.2xのエネルギー効率を提供することを実証した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る