抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
機械学習(ML)は,大規模モノのインターネット(IoT)ベースのインテリジェントおよびユビキタスコンピューティングの大データ駆動モデリングおよび解析のための重要な技術である。急速に増加するアプリケーションとデータ量のために,分散学習は,異なるものから集中した位置へのデータ共有/集合データに,しばしば非現実的で,非効率的であるので,有望な新興パラダイムである。本論文では,分散システム上のMLモデルを訓練する問題を研究し,そこでは,データを多くのユーザデバイス上に分散し,そして,学習アルゴリズムは,中央エンティティ/サーバにおける負荷を緩和する目的で,オンデバイスを操作した。Gossipベースのアプローチは,異なる使用事例でこの目的に使用されているが,特にデバイス数が大きい場合,それらは高い通信コストに悩まされている。これを緩和するために,増分ベースの方法を提案した。まず,分散MLに対する増分ブロック座標降下(I-BCD)を導入し,実行時間を犠牲にして通信コストを低減できる。収束速度を加速するために,非同期並列増分BCD(API-BCD)法を提案し,そこでは多重デバイス/エージェントが非同期方式で活性である。提案した方法の収束特性を導いた。また,シミュレーション結果は,著者らのAPI-BCD方式が,実行時間と通信コストに関して,最先端技術より優れていることを示した。【JST・京大機械翻訳】