文献
J-GLOBAL ID:201802225819706240   整理番号:18A0194644

Neurostream:スマートメモリキューブを用いたスケーラブルでエネルギー効率的な深層学習【Powered by NICT】

Neurostream: Scalable and Energy Efficient Deep Learning with Smart Memory Cubes
著者 (4件):
資料名:
巻: 29  号:ページ: 420-434  発行年: 2018年 
JST資料番号: T0882A  ISSN: 1045-9219  CODEN: ITDSEO  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
高性能コンピューティングシステムは,2.5Dと3Dメモリ階層の方へ移ると,高帯域幅メモリ(HBM)とハイブリッドメモリ立方体(HMC)に基づく主記憶ボトルネックを軽減した。この傾向はほぼメモリ計算を再検討する新しい機会を創造している。本論文では,深い畳込みネットワーク(ConvNets(畳み込みニューラルネットワーク))のスケーラブルでエネルギー効率の良い実行のための柔軟なプロセッサにおけるメモリ(PIM)溶液,サーバとハイエンド組込みシステムのための最速成長負荷の一つを提案した。コデザインアプローチはNeuroClusterと呼ばれるメニーコアPIMプラットフォームで増強された各スマートメモリキューブ(標準HMCへのモジュラ拡張)のネットワークで構成されている。NeuroClustersはNeuroStreamコプロセッサ(畳込み集中計算のための)と汎用RISC Vコアに基づくモジュラー設計を有していた。添加では,DRAMに優しいタイリング機構とスケーラブルな計算パラダイムは,非常に低いプログラミング努力でこの計算能力を有効利用した。NeuroClusterは標準HMC中の全論理ベース(Los)ダイ面積のわずか8%を占め,2.5Wの電力予算内で高機能最新(SoA)ConvNets(畳み込みニューラルネットワーク)の完全な実行のための240GFLOPSの平均性能を達成した。全体として11Wは単一SMCデバイスで消費され,類似している技術の最良のGPU実装よりも3.5X良好な22.5GFLOPS/Wエネルギー効率であった。システムレベル電力と無視できる面積増加の軽微な増加を著者らのPIMシステム,費用対効果およびエネルギー効率的な解であることを示す,四SMCの小さなネットワークを用いた955GFLOPSに容易に拡張可能である。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
ディジタル計算機方式一般  ,  計算機網 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る