プレプリント
J-GLOBAL ID:202202220660752077   整理番号:22P0285875

分散機械学習のための非同期並列増分ブロック座標降下【JST・京大機械翻訳】

Asynchronous Parallel Incremental Block-Coordinate Descent for Decentralized Machine Learning
著者 (4件):
資料名:
発行年: 2022年02月07日  プレプリントサーバーでの情報更新日: 2022年02月07日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
機械学習(ML)は,大規模モノのインターネット(IoT)ベースのインテリジェントおよびユビキタスコンピューティングの大データ駆動モデリングおよび解析のための重要な技術である。急速に増加するアプリケーションとデータ量のために,分散学習は,異なるものから集中した位置へのデータ共有/集合データに,しばしば非現実的で,非効率的であるので,有望な新興パラダイムである。本論文では,分散システム上のMLモデルを訓練する問題を研究し,そこでは,データを多くのユーザデバイス上に分散し,そして,学習アルゴリズムは,中央エンティティ/サーバにおける負荷を緩和する目的で,オンデバイスを操作した。Gossipベースのアプローチは,異なる使用事例でこの目的に使用されているが,特にデバイス数が大きい場合,それらは高い通信コストに悩まされている。これを緩和するために,増分ベースの方法を提案した。まず,分散MLに対する増分ブロック座標降下(I-BCD)を導入し,実行時間を犠牲にして通信コストを低減できる。収束速度を加速するために,非同期並列増分BCD(API-BCD)法を提案し,そこでは多重デバイス/エージェントが非同期方式で活性である。提案した方法の収束特性を導いた。また,シミュレーション結果は,著者らのAPI-BCD方式が,実行時間と通信コストに関して,最先端技術より優れていることを示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る