文献
J-GLOBAL ID:202102234881556298   整理番号:21A3276049

DIESEL+:画像データ集合上の分散深層学習タスクの加速【JST・京大機械翻訳】

DIESEL+: Accelerating Distributed Deep Learning Tasks on Image Datasets
著者 (3件):
資料名:
巻: 33  号:ページ: 1173-1184  発行年: 2022年 
JST資料番号: T0882A  ISSN: 1045-9219  CODEN: ITDSEO  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
データアクセスと処理は,画像データセット上で大規模深層学習訓練タスク(DLTs)においてかなりの量の時間を取ることを観測した。3つの因子がこの問題に寄与する。(1)大量の小ファイルへの大規模で再発性のアクセス;(2)各画像に関する反復,高価な復号化計算,および(3)計算ノードとストレージノードの間の頻繁な通信。既存の研究は,これらの問題のいくつかの側面に取り組んだ。しかし,エンドツーエンド解は提案されていない。本論文では,深層学習訓練タスクの全I/Oパイプラインを加速する全インワンシステムDIESEL+を提案した。DIESEL+はいくつかの成分を含む。(1)局所メタデータスナップショット;(2)タスク分散キャッシング;(3)チャンク状シャフリング;(4)GPU支援画像復号化と(5)オンライン領域間(ROI)復号化。メタデータスナップショットは,多数のファイルの頻繁な読み取りにおけるメタデータアクセスのボトルネックを除去する。DLTタスクのワーカーノードを横断したパータスク分散キャッシュは,基礎となるストレージのI/O圧力を低減する。チャンクベースのシャッフル法は,小さなファイル読取を大きなチャンク読取に変換するので,訓練精度を犠牲にすることなく性能が向上する。GPU支援画像復号化とオンラインROI法は,画像復号化作業負荷を最小化し,ノード間のデータ移動のコストを低減する。これらの技術は,システムにシームレスに統合される。著者らの実験において,DIESEL+は,全体の訓練時間に関して2から3倍の因子によって,既存のシステムを凌駕した。Copyright 2021 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る