抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
GPUsは,Graph処理,Intelligent Personal Assistant(IPA),Deep学習などの新しいサービスを加速するために,現代のデータセンタで広く使われてきた。しかしながら,現在のGPUは共有のために非常に限られたサポートを持っている。それらはデータセンタにおいて時間多重化された方法で共有され,低スループットをもたらす。GPUカーネルスケジューリングに関する以前の研究は,公平性に対する目標をスケジューリングするか,あるいは,動的に到着するカーネルを扱うことができないGPUを静的に共有するだけである。最近の研究は,動的共有を可能にするGPUのためのハードウェア先取り機構を提案した。このメカニズムを利用して,GPUのためのプリエンプションアウェアカーネルスケジューリング戦略を提案した。この戦略は,相補的なカーネルを一緒に実行することによりスループットを改善する。さらに,著者らの戦略は,新しいカーネルが到着するときの解析モデルによるプリエンプションの性能利益とオーバーヘッドを重みづけることによって,実行カーネルを先取りするかどうかを決定する。評価結果は,著者らの戦略が逐次実行の上で20.1%,FCFS戦略上で11.5%までスループットを改善することを示した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【JST・京大機械翻訳】