抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
機械学習モデルに対するプライバシー攻撃は,そのようなモデルを訓練するために使用されるデータを同定することを目的とする。伝統的にそのような攻撃は,一度訓練され,敵対によってアクセスできる静的モデルに関して研究されている。新しい法的要求に適合する動機として,多くの機械学習法が,最近,機械非学習をサポートするために拡張され,例えば,特定の用例がそれらの訓練集合から取り除かれ,新しい法的要求を満たしているならば,更新モデルを更新する。しかし,プライバシー攻撃は,攻撃者が削除前の元のモデルおよび欠失後の新しいモデルの両方にアクセスすることができるので,この新設定においてより壊滅的になる可能性がある。実際,欠失の非常に行動は,削除された記録をプライバシー攻撃により脆弱にするかもしれない。暗号定義と微分プライバシーフレームワークに触発されて,著者らは機械非学習のプライバシー含意を形式的に研究する。(多様な形式の)欠失推論と欠失再構成攻撃を定式化し,そこでは,その記録がどの記録が削除されるか,または,削除された記録を再構成するか(おそらく,)を再構成するかどうかを狙った。次に,分類,回帰および言語モデルのような様々な機械学習モデルおよびタスクに対して,成功した削除推論および再構成攻撃を提示した。最後に,提案方式が(Garg,Goldwaser,およびVasudevan,Eurocryp’20)の方式を満たすならば,攻撃がおそらく排除されることを示す。【JST・京大機械翻訳】