文献
J-GLOBAL ID:202002268058933350   整理番号:20A1509054

深層ニューラルネットワークのためのTIEエネルギー効率の良いテンソル列ベース推論エンジン【JST・京大機械翻訳】

TIE energy-efficient tensor train-based inference engine for deep neural network
著者 (6件):
資料名:
号: ISCA ’19  ページ: 264-278  発行年: 2019年 
JST資料番号: D0698C  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
人工知能(AI)の時代において,深いニューラルネットワーク(DNN)は,最も重要で強力なAI技術として浮上している。しかしながら,大きなDNNモデルは,資源制約シナリオにおいてDNNを採用するための大きな課題を課す,ストレージと計算集約の両方である。したがって,モデル圧縮は,DNNの広い展開を確実にするための重要な技術になる。本論文では,テンソル列(TT)分解を考慮することにより,アーキテクチャドメインにおける非常に有望だが,まだ探索された圧縮技法の最先端技術を開発した。その方法は非常に高い圧縮比を有する。しかし,課題は,TT形式DNNモデルに関する推論が,本質的に大量の冗長計算を引き起こし,著しいエネルギー消費を引き起こすことである。このように,TT分解の直接的な応用は,実行可能ではない。この基本的課題に取り組むために,本論文は,2つの重要なメリットを楽しむTT-format DNNのための計算効率的推論方式を開発した。1)それは乗算の数の理論的限界を達成して,このように,すべての冗長な計算を除去する。2)多段処理スキームは,すべてのテンソルコアへの集中メモリアクセスを低減し,著しいエネルギー節約をもたらす。新しい推論方式に基づき,著者らはTIE,TT型圧縮DNNターゲット推論エンジンを開発した。TIEは非常に柔軟で,異なるニーズのための異なるタイプのネットワークをサポートする。16処理要素(PE)プロトタイプをCMOS28nm技術を用いて実装した。1000MHzで動作すると,TIE加速器は1.74mm2と154.8mWを消費する。EIEと比較して,TIEは,異なる作業負荷で,それぞれ,7.22×√10.66×良好な面積効率および3.03×Ω≦4.48×良好なエネルギー効率を達成した。CirCNNと比較して,TIEは,それぞれ5.96×と4.56×より高いスループットとエネルギー効率を達成した。結果は,TIEが最先端のソリューションに対して顕著な利点を示すことを示した。Please refer to this article’s citation page on the publisher website for specific rights information. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  パターン認識 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る