抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
微分プライバシー(DP)は,訓練アルゴリズムのプライバシー保証に関する推論のためのデファクト標準である。DPが既存のメンバーシップ推論(MI)攻撃に対するモデルの脆弱性を低減するという経験的観察にもかかわらず,なぜこれがこのケースであるのかという理論的根拠は,文献では大部分欠けている。実際に,このモデルはDP保証で訓練する必要があり,それらの精度を大きく減少させることを意味する。本論文では,訓練アルゴリズムが(ε,δ)-DPを提供するとき,任意のMI広告の正精度(即ち,攻撃精度)にタイトな境界を提供する。この境界は,新しいプライバシー増幅方式の設計を知らせる:効果的な訓練セットは訓練の開始前により大きな集合からサブサンプリングされる。これが,MIの正精度の境界を大きく低減することを見出した。その結果,著者らのスキームは,任意のMI広告の成功を制限するための緩いDP保証の使用を可能にする。これは,モデルの正確性がプライバシー保証によってあまり影響されないことを確実にする。これは,彼らが訓練する必要性より,はるかに多くのデータで働く実体に明らかに利益があるが,学術文献において研究されたベンチマークに関する精度-プライバシートレードオフも改善できる。その結果,サブサンプリングは,MNISTとCIFAR10に対する強力なDP保証による訓練よりも,最先端のMI攻撃(LiRA)の有効性を大幅に低減することを見出した。機械学習の分野に結合されたMIの意味を考察することにより結論を下した。【JST・京大機械翻訳】