文献
J-GLOBAL ID:201802219901460688   整理番号:18A1480689

NVidiaテンソルコアのプログラム可能性,性能および精度【JST・京大機械翻訳】

NVIDIA Tensor Core Programmability, Performance & Precision
著者 (5件):
資料名:
巻: 2018  号: IPDPSW  ページ: 522-531  発行年: 2018年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
NVIDIA Volta GPUマイクロアーキテクチャは,クロックサイクル当たり4x4マトリックス上に一つのマトリックス-マルチ-アンド-蓄積を実行するテンソルコアと呼ばれる特殊化ユニットを導入する。ボルタマイクロアーキテクチャを特徴とするNVIDIA Tesla V100加速器は,混合精度で125Tflop/sの理論的ピーク性能を有する640のTensor Coresを提供する。本論文では,NVIDIA Tensor Cores,それらの性能および混合精度における計算による精度損失をプログラムするための現在のアプローチを検討した。現在では,NVIDIAは,Tensor Coresに関するプログラミングマトリックス-マルチ-アンド-蓄積の3つの異なる方法を提供する。CUDA Warpマトリックス多重累積(WMMA)API,CUTLASS,WMMAに基づくテンプレートライブラリ,CUBLAS GEMM。異なるアプローチで実験した後に,NVIDIA Tensor Coresは,Tesla V100GPU,7および3倍の混合精度で,それぞれ単一および半分の精度で最大83のTflops/sを供給できることを見出した。バッチGEMMのWMMA実装は,4Tflops/sの性能に達した。半精密入力によるマトリックス乗算による精度損失は多くのHPC応用において重要であるかもしれないが,それは計算の増加のコストにおいてかなり減少することができる。これらの結果は,マトリックス乗算を用いたHPCアプリケーションが,NVIDIA Tensor Coresの使用から強く利益を得ることができることを示している。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る