抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
需要は,スケーラブルなGPUベースの深層学習システムのための産業で増加している。残念なことに,一般的な深い学習フレームワーク上に構築された既存の訓練への応用,Caffe,Theano,トーチ,などを含む,大規模クラスタ上での分散GPU訓練を行うことができない。このような状況を改善するために,本論文では,関係,モデル精度を犠牲にすることなく,複数の機械に容易に既存の深層学習フレームワークを可能にするプラットフォームを提供する。Nexusはクラスタに広がる学習者の多数による分散訓練を統合する最近提案された分布定数管理アーキテクチャ利用する。既存の単一ノードに基づくアプリケーションの実行時挙動の特徴を解析すること,ネクサスを最適化方式の階層的ハイブリッドパラメータ凝集,強化されたネットワークと計算層,および品質にガイドされた連絡調整を含むを備えた,通信チャネルと資源利用を強化することである。多様な深い学習応用の経験的評価は,関係は統合が容易であり,主要な深い学習フレームワークへの効率的な分散訓練サービスを提供できることを実証した。添加では,関係の最適化方式は,標的精度限界と訓練時間を短縮するために非常に効果的である。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】