文献
J-GLOBAL ID:201802255413720611   整理番号:18A0195757

畳込みニューラルネットワークを加速するためのFermat数変換の使用【Powered by NICT】

Using Fermat number transform to accelerate convolutional neural network
著者 (3件):
資料名:
巻: 2017  号: ASICON  ページ: 1033-1036  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
畳込みニューラルネットワーク(CNN),画像認識と自然言語処理に重要なブレークスルーを達成した。しかし,CNNは法外な計算量に悩まされている。多くの努力が直接畳込みの計算量を低減する方法を検討した。低乗算複雑性を目指して,Fermat数変換(FNT)に基づく効率的な畳込みアーキテクチャを提案した。FNTアルゴリズムとオーバラップ・付加(OaA)法を示した。セルラニューラルネットワークにおける畳込み計算に対処するために,FNTは二次元(2D)FNTに拡張し,対応する計算方法論を導入した。パイプラインFNT構造もFNTを効率的に実現するため提案した。CNN加速器の全体構造はOaA FNTに基づいて与えた。計算量解析は提案したOaA FNTコンボリューション法を直接畳込みとOaA FFT法と比較して乗算複雑性の5.59×と2.56×を減少させることを示した。もFPGAプラットフォームXilinx Virtex7XC7VX485tの評価を行い,コンボリューションスループットと資源効率(GOP/s/DSP)に関して比較した。提案したアーキテクチャは,最新の設計と比較して,3.05倍以下のDSPを用いた1.41×コンボリューションスループットを達成した。4.29×改善は,資源効率の観点から得られた。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る