文献
J-GLOBAL ID:202102245784628703   整理番号:21A0891939

知識蒸留に基づく連合学習アルゴリズム【JST・京大機械翻訳】

Federated Learning Algorithm Based on Knowledge Distillation
著者 (3件):
資料名:
巻: 2020  号: ICAICE  ページ: 163-167  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
反復学習は,分散機械学習の新しい方式であり,多数のエッジコンピューティング装置がプライベートデータ共有なしに共有モデルを共同学習することを可能にする。反復学習は,ノードが自分自身の個人データの代わりに局所的に訓練されたモデルだけを同期することを可能にし,プライバシーとセキュリティの保証を提供する。しかし,連合学習における不均一性の課題により,それは;(1)デバイス間の不均一モデルアーキテクチャ;(2)実際の連合データセットにおける統計的不均一性は,従来の連合学習アルゴリズムの貧弱な性能をもたらす独立同一分布に従わない。上記の問題を解決するために,本論文は,知識蒸留に基づく新しい分散訓練法であるFedDisillを提案する。各デバイスに個別化されたモデルを導入することによって,個人化されたモデルは,グローバルモデルがローカルデータセットに適応できない状況でも局所性能を改善し,それによってグローバルモデルの能力とロバスト性を改善することを目的とする。局所装置の性能の向上は,知識蒸留の影響から利益を得て,それは,異種ネットワークの間の知識移転によってグローバルモデルの改善を導くことができた。実験は,FedDistillが分類タスクの精度を著しく改善し,異種ユーザのニーズを満たすことを示した。Copyright 2021 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る