抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
GPUは,HPCシステムで一般的になりつつあるが,CPU,GPUとCPU側計算,通信,同期操作の両方を管理するための原因となっていた。例えば,GPU側計算からの結果は,遠隔目的地まで移動するならば,CPUは完成通信操作の発行を計算GPU上での同期しなければならない。CPUサイクルとエネルギーの両方が同期のための待機消費されている。言い換えると,これは全体の実行時間とスケーラビリティに大きく影響する(例えば:強いスケーリング応用)。本研究では,新しいGPUDirect aSync(GDS)機構を用いたMPI+CUDA応用GPU対応システム上のCPUとGPUの間の通信制御フローを分離する技術を提案した。GDSはGPUはクリティカルパスから離れたCPUを伝えるのを目的とネットワーク通信を可能にする。MPI+CUDA応用におけるGDSの利点を利用するために,続いて前またはCUDA手術後に水流次数の進歩MPI通信へのGPUとNICできるCUDA河川(MPI GDSと呼ぶ)にオフロードMPI操作の概念を導入した。も良好な性能を達成しながら流秩序を保証するポイントツーポイント通信操作を実現するための効率的設計/プロトコルを提案した。提案した方法は,純MPI+CUDA応用と比較して,散布パターンのシミュレーション(8GPUノードを持つ媒質メッセージ範囲)を用いた応用カーネルパターン模倣ベンチマークと36%まで改善におけるマイクロベンチマークおよび30%まで改善し良好な利点を示した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】