文献
J-GLOBAL ID:201602211311914748   整理番号:16A0023267

GMPI:GPUクラスタにおけるGPUセルフMPIの提案

著者 (4件):
資料名:
巻: 2015  号: HPC-151  ページ: VOL.2015-HPC-151,NO.12 (WEB ONLY)  発行年: 2015年09月23日 
JST資料番号: U0451A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: 日本 (JPN)  言語: 日本語 (JA)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
近年,GPUクラスタでは,GPUプログラミング環境としてCUDA(Compute Unified Device Architecture)が標準的に用いられている。GPUクラスタ上での並列アプリケーションでは,CUDA環境おいて,ノードを跨ぐGPU間通信が発生し,MPIなどによりホストCPUが処理するのが一般的である。そのため,通信が発生する毎にGPU上のCUDAカーネルからホストに一旦制御を戻す必要があり,カーネル関数の起動や同期に伴うオーバーヘッドが生じる。特に並列処理における通信粒度が細かいほど,カーネル関数の起動回数も増え,オーバーヘッドも増加する。それだけでなく,プログラミングのコストが高く,CPU向けMPIプログラムをGPU並列化する場合にソースコードが煩雑になりやすいといった生産性の低下も問題となっている。これらの問題を解決するために,本研究ではGPUカーネル内からMPI通信の起動を可能とする並列通信システム“GMPI”を提案・開発する。これにより,並列GPUプログラミングを簡単化し,GPUカーネルの起動や同期に伴うオーバーヘッド削減による並列処理効率の向上を目指す。本稿では,GMPIの実装と,Ping-Pong通信および姫野ベンチマークの性能評価を行う。現状では性能最適化やチューニングが十分でなく,Ping-Pong通信では従来方式とほぼ同等の性能であるが,姫野ベンチマークでは従来手法の約半分の性能が得られている。(著者抄録)
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
専用演算制御装置  ,  計算機網  ,  ディジタル計算機方式一般 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る