抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近の研究は,深いニューラルネットワーク(DNN)が回避とバックドア(中毒)攻撃を含む敵対攻撃に対して脆弱であることを示した。防御側では,回避攻撃に対する経験的および証明可能なロバスト性の両方の改善に集中的な努力があった。しかし,バックドア攻撃に対する証明可能なロバスト性は,まだ未調査のままである。本論文では,一般的脅威モデル,特にバックドア攻撃に対する機械学習モデルロバスト性の証明に焦点を当てた。まず,ランダム化平滑化技法による統一フレームワークを提供し,回避とバックドア攻撃の両方に対するロバスト性を証明できる方法を示した。次に,訓練されたモデルを平滑化し,バックドア攻撃に対するロバスト性を証明するために,最初のロバスト訓練プロセス,RABを提案した。RABで訓練された機械学習モデルに対するロバスト性限界を証明し,ロバスト性限界がタイトであることを証明した。さらに,K最近傍分類器のような簡単なモデルに対してロバスト平滑化モデルを効率的に訓練することが可能であり,そのようなモデルの雑音分布からサンプリングする必要性を除去する厳密な平滑訓練アルゴリズムを提案した。経験的に,著者らは,MNIS,CIFAR-10,およびImageNetteデータセットに関するDNN,サポートベクターマシン,およびK-NNモデルのような異なる機械学習(ML)モデルのための包括的実験を行い,バックドア攻撃に対する認証ロバスト性のための最初のベンチマークを提供した。さらに,提案厳密アルゴリズムの利点を実証するために,スパムベース表データセット上のK-NNモデルを評価した。多様なMLモデルとデータセットに関する理論解析と総合評価の両方が,一般的訓練時間攻撃に対する更なるロバスト学習戦略に光を当てた。【JST・京大機械翻訳】