文献
J-GLOBAL ID:201802275344069516   整理番号:18A0165825

エッジ素子上での分散型深い学習:適応圧縮による実現可能性【Powered by NICT】

Distributed deep learning on edge-devices: Feasibility via adaptive compression
著者 (3件):
資料名:
巻: 2017  号: NCA  ページ: 1-8  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
データマイニングと解析サービスの大部分は,現代の機械学習技術を使用し,深い学習のような。深層学習による最新の結果は,計算資源の集中的使用の代償が必要である。主要骨格(例えば,TensorFlow)は,GPUまたはデータセンタにおけるハイエンドサーバ上で実行される。他端については,おそらく遊離CPUサイクルを用いたパーソナルデバイスの増殖であるこれはサービスは,ユーザの家庭で運転を可能にする,機械学習作業を埋め込むことができる。本論文において,筆者らは次の質問:WAN接続素子の深い学習計算が可能は分散,学習タスクにより引き起こされる交通にもかかわらずこのような装置は,いくつかの重要な課題,特に最新のモデルをホストサーバを維持しなければならない侵入トラヒックを上昇することを示した。この応力を低減するために,著者らはAdaComp,サーバにモデル作業者の更新を圧縮するための新しいアルゴリズムを提案した。確率的勾配降下に基づくアプローチに適用可能,効率的な勾配選択と学習速度変調を組み合わせたものである。は,その後,学習済みモデルの精度に及ぼす圧縮,デバイスの不均一性と信頼性の影響を実験,測定,LinuxコンテナにTensorFlowを埋め込むエミュレータプラットフォームであった。二桁(例えば,MNISTデータセット上で畳込みネットワークのための191倍の減少)による労働者サーバに送信データの総量の減少を報告し,標準的な非同期確率的勾配降下と比較した場合,モデル精度を保持している。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る