プレプリント
J-GLOBAL ID:202202205157848149   整理番号:22P0276794

FAT:3値重みニューラルネットワークのための高速付加によるメモリ内アクセラレータ【JST・京大機械翻訳】

FAT: An In-Memory Accelerator with Fast Addition for Ternary Weight Neural Networks
著者 (5件):
資料名:
発行年: 2022年01月19日  プレプリントサーバーでの情報更新日: 2022年08月01日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
※このプレプリント論文は学術誌に掲載済みです。なお、学術誌掲載の際には一部内容が変更されている可能性があります。
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
畳込みニューラルネットワーク(CNN)は,様々なアプリケーションにおいて優れた性能を示すが,高い計算量を持つ。量子化を適用してCNNの待ち時間とストレージコストを低減した。量子化法の中で,バイナリーと3成分重みネットワーク(BWNsとTWNs)は,8ビットと4ビット量子化に対してユニークな利点を持っている。それらは,In-Memory-Computing(IMC)デバイスに好都合な付加を伴うCNNにおける乗算操作を置き換える。BWNのIMC加速は広く研究されている。しかし,TWNはBWNより高い精度とより良いスパース性を持っているが,TWNのためのIMC加速は限られた研究を持っている。既存のIMCデバイス上のTWNは,スパース性が十分に利用されていないため,非効率であり,追加操作は効率的でない。本論文では,TWNのための新しいIMC加速器としてFATを提案した。最初に,著者らは,ゼロ重みでヌル操作をスキップするために,TWNのスパース性を利用するスパース加算制御ユニットを提案した。第2に,メモリSense増幅器に基づく高速加算方式を提案し,メモリセルへのキャリーの伝搬と書き込みの両方の時間オーバヘッドを回避する。第3に,筆者らはさらに,活性化と重みのデータ移動を減らし,メモリカラムを横切る並列性を増すために,組合せデータマッピングを提案する。シミュレーション結果は,Sense増幅器レベルでの追加操作のために,FATが,状態-Of-Art IMC加速器ParaPIMと比較して,2.00X高速化,1.22X電力効率,および1.22X面積効率を達成することを示した。FATは,80%平均スパース性を持つネットワーク上のParaPIMと比較して,10.02X高速化と12.19Xエネルギー効率を達成した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る