文献
J-GLOBAL ID:202202266162621961   整理番号:22A0554322

勾配漏洩攻撃耐性深層学習【JST・京大機械翻訳】

Gradient Leakage Attack Resilient Deep Learning
著者 (2件):
資料名:
巻: 17  ページ: 303-316  発行年: 2022年 
JST資料番号: W1570A  ISSN: 1556-6013  CODEN: ITIFA6  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
勾配漏洩攻撃は,モデル訓練品質を損なうことなく,反復訓練中の攻撃者被覆勾配更新として,深い学習におけるウィックなプライバシー脅威の1つと考えられ,また,高い攻撃成功率で漏れた勾配を用いて,高感度訓練データを秘密に再構成する。微分プライバシーによる深層学習は,微分プライバシー保証による深層学習モデル出版のためのデファクト標準であるが,固定プライバシーパラメータを有する差動プライベートアルゴリズムが,勾配漏洩攻撃に対して脆弱であることを示した。本論文では,微分プライバシー(DP)による勾配漏洩弾性深層学習に対する代替アプローチを検討した。最初に,固定プライバシーパラメータを用いてすべての層における勾配に一定の雑音を注入するために固定雑音分散を使用する,微分プライバシーによる深層学習の既存の実装を解析した。DP保証にもかかわらず,この方法は低い精度に悩まされ,勾配漏洩攻撃に脆弱である。第二に,動的プライバシーパラメータを用いて,微分プライバシー保証による勾配漏洩弾性深層学習手法を提案した。一定の雑音分散をもたらす固定パラメータ戦略とは異なり,異なる動的パラメータ戦略は,適応雑音分散と適応雑音注入を導入するための代替技術を提示し,これは,差分プライベートモデル訓練中の勾配更新の傾向に密接に整列する。最後に,代替手法を評価し,比較するための4つの補完的計量を述べた。6つのベンチマークデータセットに関する広範な実験は,動的プライバシーパラメータによる差動プライベート深層学習が,固定DPパラメータを用いた深層学習と,すべての側面における既存の適応クリッピング手法,すなわち,優れた精度性能,強い微分プライバシー保証,および高い攻撃レジリエンス,を凌駕することを示した。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  人工知能  ,  データ保護 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る