抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
データマイニングと解析サービスの大部分は,現代の機械学習技術を使用し,深い学習のような。深層学習による最新の結果は,計算資源の集中的使用の代償が必要である。主要骨格(例えば,TensorFlow)は,GPUまたはデータセンタにおけるハイエンドサーバ上で実行される。他端については,おそらく遊離CPUサイクルを用いたパーソナルデバイスの増殖であるこれはサービスは,ユーザの家庭で運転を可能にする,機械学習作業を埋め込むことができる。本論文において,筆者らは次の質問:WAN接続素子の深い学習計算が可能は分散,学習タスクにより引き起こされる交通にもかかわらずこのような装置は,いくつかの重要な課題,特に最新のモデルをホストサーバを維持しなければならない侵入トラヒックを上昇することを示した。この応力を低減するために,著者らはAdaComp,サーバにモデル作業者の更新を圧縮するための新しいアルゴリズムを提案した。確率的勾配降下に基づくアプローチに適用可能,効率的な勾配選択と学習速度変調を組み合わせたものである。は,その後,学習済みモデルの精度に及ぼす圧縮,デバイスの不均一性と信頼性の影響を実験,測定,LinuxコンテナにTensorFlowを埋め込むエミュレータプラットフォームであった。二桁(例えば,MNISTデータセット上で畳込みネットワークのための191倍の減少)による労働者サーバに送信データの総量の減少を報告し,標準的な非同期確率的勾配降下と比較した場合,モデル精度を保持している。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】