抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
近年,機械学習において多大な学術的努力と産業成長が見られた。機械学習のセキュリティはますます顕著になった。中毒攻撃は,訓練プロセスの間に機械学習が必要とする訓練データを汚染することに焦点を合わせる機械学習に対する最も関連したセキュリティ脅威の1つである。具体的には,攻撃者混合物は,学習されたモデルをhimに有益にするために,訓練データに中毒サンプルを作った。著者らの知る限りでは,中毒攻撃に関する既存の研究は,これらの2つの攻撃を一緒に統一しない完全性攻撃またはアベイラビリティ攻撃のいずれかに焦点を合わせた。攻撃者の視点から,攻撃者の戦略は十分ではない。最終的に,既存の提案は学習モデルの試験誤差の増加に集中しただけであるが,攻撃の隠蔽の重要性を無視した。これらの問題を克服するために,攻撃者の戦略が攻撃の影響と攻撃の隠蔽の2つの観点から定義される中毒攻撃のための完全な敵のモデルを最初に提示した。次に,類似の定式化における完全性攻撃とアベイラビリティ攻撃を統一した。さらに,柔軟性を強化するために,トレードオフパラメータを攻撃者の目的関数に挿入して,攻撃者が隠蔽の要求に対する効果の誘引をバランスさせることができることを意味した。最後に,例として,攻撃の有効性を実証するために,線形回帰とロジスティック回帰に関する広範な実験を行った。Copyright 2019 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】