文献
J-GLOBAL ID:202202212784285830   整理番号:22A0696313

FPGA上のコラム-ワイズ行列対数ベクトル乗算によるリカレントニューラルネットワーク【JST・京大機械翻訳】

Recurrent Neural Networks With Column-Wise Matrix-Vector Multiplication on FPGAs
著者 (10件):
資料名:
巻: 30  号:ページ: 227-237  発行年: 2022年 
JST資料番号: W0516A  ISSN: 1063-8210  CODEN: ITCOB4  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文は,微細粒cOlumn-Wise行列四角形ベクトルマルチプリシオN(RENOWN)を有するRE電流ニューラルネットワークのための再構成可能加速器を提示した。最先端の列ワイズ操作の代わりに,カラムワイズ行列VoIPベクトル乗算(MVM)を用いて,再帰ニューラルネットワーク(RNN)加速のための新しい待ち時間隠蔽アーキテクチャを提案した。このハードウェア(HW)アーキテクチャは,RNN推論システムのスループットを改善するために,データ依存性を除去することができる。さらに,要素ベース並列性(EP)とベクトルベース並列性(VP)の多様な構成を組み入れる一方で,大きな重み行列を可能にする構成可能なチェッカーボードタイリング戦略を導入した。これらの最適化は,HW利用を増加させ,システムスループットを高めるために並列性の利用を改善する。評価結果は,この設計が,フィールドプログラマブルゲートアレイ(FPGA)ベースのRNN設計で最も高い29.6テラ演算(TOPS)を達成できることを示した。FPGA上の最先端の加速器と比較して,著者らの設計は,3.7Ω>14.8倍のより良い性能を達成し,最高のHW利用を持っている。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
ニューロコンピュータ  ,  電力変換器 

前のページに戻る