抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
現代のプライバシー規制は,製品,サービス,および企業によって忘れる権利に市民を助成する。機械学習(ML)アプリケーションの場合,これは記憶アーカイブだけでなくMLモデルからもデータの削除を必要とする。ML応用に必要な規制コンプライアンスの必要性の増大により,機械の学習は新たな研究課題となっている。忘却要求の権利は,既に訓練されたMLモデルから,あるセットまたはクラスのデータの除去の形になる。実際的考察は,削除されたデータを捨てた後のスクラッチからのモデルの再訓練を排除する。少数の既存の研究は,訓練データ全体,または訓練データのサブセット,または訓練中に保存されるいくつかのメタデータのいずれかを用いて,非学習のためのモデル重みを更新する。しかしながら,多くの場合,訓練プロセスまたは訓練サンプルに関連するデータは,非学習目的にアクセスできる可能性がある。したがって,質問を問わず,ゼロ訓練サンプルで非学習を達成できる。本論文では,零元のデータサンプルが利用できるために利用可能な,極端だが実用的なシナリオのための,ゼロショットマシン非学習の新しい問題を紹介した。次に,(a)誤差最小化最大化雑音と(b)ゲート知識転送に基づくゼロショットマシン非学習のための2つの新しい解決策を提案した。これらの方法は,保持データに対するモデル有効性を維持しながら,モデルからの忘却データの情報を除去する。ゼロショット方式は,モデル反転攻撃とメンバーシップ推論攻撃に対して良い保護を提供する。著者らは,非学習法の品質を効果的に測定するために,新しい評価計量,Anamnsis Index(AIN)を導入した。実験は,ベンチマークビジョンデータセットに関する深層学習モデルにおける非学習に対する有望な結果を示した。ソースコードはここで利用可能である:https://github.com/ayu987/zero shot unlearning;【JST・京大機械翻訳】