プレプリント
J-GLOBAL ID:202202215769221604   整理番号:22P0202310

差分プライバシーベース連合学習に対するSybil攻撃の緩和【JST・京大機械翻訳】

Mitigating Sybil Attacks on Differential Privacy based Federated Learning
著者 (4件):
資料名:
発行年: 2020年10月20日  プレプリントサーバーでの情報更新日: 2020年10月20日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
連合学習では,機械学習と深層学習モデルを分散デバイスで大域的に訓練する。連合学習の文脈における最先端のプライバシー保護技術は,ユーザレベルの差動プライバシーである。しかしながら,そのような機構は,Sybil攻撃のようないくつかの特定のモデル中毒攻撃に脆弱である。悪意のある敵対は,Sybil攻撃において,複数の偽のクライアントまたは衝突の妥協したデバイスを創り,直接モデル更新操作をマウントする。モデル中毒攻撃に対する新規防御に関する最近の研究は,摂動によるクライアントのモデル更新をマスクするので,差動プライバシーを利用するとき,Sybil攻撃を検出するのは難しい。本研究では,微分プライバシーベース連合学習アーキテクチャに対する最初のSybil攻撃を実装し,モデル収束に及ぼすそれらの影響を示した。著者らは,グローバルモデル収束速度が減少または発散に導くように,これらのSybilクライアントのローカルモデル更新に関する差動プライバシーの局所的プライバシー予算イプシロンによって反映された種々の雑音レベルを操作することによって,いくつかのクライアントをランダムに妥協した。この攻撃を,KrumとTrimmed平均と呼ばれる2つの最近の凝集防御機構に適用した。MNISTとCIFAR-10データセットに関する評価結果は,著者らの攻撃が大域的モデルの収束を効果的に減速することを示した。次に,収束異常検出のために各ラウンドにおけるすべての参加者の平均損失を監視するための方法を提案し,各クライアントから報告された予測コストに基づいてSybil攻撃を防御する方法を提案した。著者らの経験的研究は,著者らの防衛方式が,モデル収束に及ぼす著者らのSybil攻撃の影響を効果的に緩和することを示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
データ保護 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る