文献
J-GLOBAL ID:202002266085760783   整理番号:20A0954601

7.2 12nmプログラマブル畳込み効率の良い神経処理ユニットチップが825TOPSを達成する【JST・京大機械翻訳】

7.2 A 12nm Programmable Convolution-Efficient Neural-Processing-Unit Chip Achieving 825TOPS
著者 (33件):
資料名:
巻: 2020  号: ISSCC  ページ: 136-140  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
畳込みニューラルネットワーク(CNN)は,データセンターにおける重要な応用を表し,それは加速器を呼ぶ。1)CNN計算に有効である。2)コスト効率が高い。そして,3)アルゴリズムアップグレードのための適切なプログラミング柔軟性を有する。市場におけるそのようなチップの利用可能性を欠いて,著者ら自身を設計した。マトリックス乗算(MM)とコンボリューション(CONV)は,集中的な計算を必要とするトップ-2の深い学習(DL)操作である。GPUs[6],[7],TPU[9],およびいくつかの新しいAIチップ[3],[4]のような多くの既存の加速器をGEMMのために構築した。GEMMエンジン上でCONVを計算すると,1つは,一般的なマトリックスに画像を平坦化するために,img2col()変換を必要とする。これは巨大なデータインフレーションを導入し,不必要な余分な計算と記憶をもたらすが,また,I/Oとメモリに対する演算強度と境界性能を減少させる。[5]のようないくつかの加速器はCONVアーキテクチャを直接利用するが,より大きいがバランスのとれた計算電力を単一チップに統合することは非常に困難である。さらに,DLアルゴリズムの高速進化により,データセンタシナリオに対する専用ASICの代わりにプログラマブルニューラル処理ユニット(NPU)を設計することが重要である。上記の要求を満たすために,著者らのNPUは操作融合粗粒命令の制御の下でCONV効率的であるように構築されている。それは,大きなSRAMのみの設計によるスクイーズ計算により可能な限り多くの計算能力を統合する。また,それは,予想される前向きな機能性のための範囲を持つ命令セットアーキテクチャ(ISA)を介してプログラミング柔軟性を提供する。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る