文献
J-GLOBAL ID:202002216740992989   整理番号:20A0661607

サーバレスFederated Learningのための分散最適化

著者 (5件):
資料名:
巻: 82nd  号:ページ: 3.19-3.20  発行年: 2020年02月20日 
JST資料番号: S0731A  資料種別: 会議録 (C)
記事区分: 短報  発行国: 日本 (JPN)  言語: 日本語 (JA)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
・小規模データを所有する個人や中小企業などが独立した学習器を学習させ,それらの連携により,大規模データを使用した学習と同程度の性能を達成する学習手法。
・SNS等のネットワークを介して学習器同士が学習途中のモデルを共有し,最終的には,全学習器がネットワーク上の全データを使って学習した場合と同等の学習モデル。
・提案手法は,中央局が不要で,参加する学習器同士が対応であるため,サービスの寡占化を防止。
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  計算機網 
引用文献 (3件):
  • McMahan, H. B., et al.: Communication-Efficient Learning of Deep Networks from Decentralized Data, Proc. of AISTATS, 2017.
  • Anil, R., et al.: Large Scale Distributed Neural Network Training through Online Distillation, Proc. Of ICLR, Apr, 2018.
  • Nedic, A., et al.: Constrained Consensus and Optimization in Multi-Agent Networks, IEEE Trans. Autom. Control, Vol.55, No.4, pp.922-938 (2010).
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る