文献
J-GLOBAL ID:201702283203097281   整理番号:17A0756237

PIE:ディープニューラルネットワークにおける推論プロセスのためのパイプラインエネルギー効率の良い加速器【Powered by NICT】

PIE: A Pipeline Energy-Efficient Accelerator for Inference Process in Deep Neural Networks
著者 (6件):
資料名:
巻: 2016  号: ICPADS  ページ: 1067-1074  発行年: 2016年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
は,フィールドプログラマブルゲートアレイ(FPGA)に基づくハードウェアアクセラレータによる深部ニューラルネットワーク(DNN)の推論プロセスを高速化するために新しい研究ホットな話題になっている。層間の層別構造とデータ依存性のために,以前の研究は,一般的に計算時間を短縮するために単層の固有の並列性に焦点を当てているが,層の間の並列性を無視している。本論文では,配管の二つの近接した層によるDNN推論計算を加速するPIEと名付けたパイプラインエネルギー効率加速器を提案した。異なる計算桁の二つの隣接した層を実現するにより,層の間のデータ依存性は弱くなることができる。層は出力を産生するとすぐに,次の層は,入力として出力をおよび他の計算法で直ちに並列計算を開始する。そのような方法で,隣接層の間の計算したパイプライン。Xilinx Zynq-7000FPGAを用いたZedboard開発キットに関する実験を行い,i74~6.0GHz IntelコアCPUとNVIDIA K40C GPUと比較した。実験の結果,PIEはCPUよりも4.82倍迅速であり,それぞれ355.35xおよび12.02xによるCPUとGPUのエネルギー消費を減らすことができることを示した。に加えて,層は連続で処理されることをないパイプライン法と比較して,PIEはほぼ50%の性能を改善した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
専用演算制御装置  ,  集積回路一般 

前のページに戻る