抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
不正なクライアントは,訓練フェーズの間,バックドアサンプルを含む悪意のあるデータを使用して,連合学習システムを攻撃する。妥協されたグローバルモデルは,タスクのために設計された検証データセット上でよく機能するが,バックドアパターンを有するデータの小さい部分集合は,間違った予測を行うためのモデルを誘発する可能性がある。サーバ側の訓練の集約段階中に攻撃を検出しようと試みた攻撃者と防御者の攻撃を試みている攻撃者の間には,腕の人種がある。本研究では,訓練フェーズ後のバックドア攻撃を緩和するための,新しい効果的な方法を提案した。具体的には,ネットワーク内の冗長なニューロンを除去し,次に,モデルの極端な重み値を調節するために,供給した剪定法を設計した。分散Fashion-MNISTT上で行った実験により,提案手法は検証データセットにおけるテスト精度の5.5%損失で,平均攻撃成功率を99.7%から1.9%に低減できることを示した。試験精度に及ぼす剪定影響を最小にするために,著者らは剪定後に微調整することができ,攻撃成功率は6.4%に低下し,試験精度の1.7%損失だけであった。CIFAR-10上の分散バックドア攻撃下の更なる実験はまた,平均攻撃成功率が検証データセットの試験精度の2%未満の損失で70%以上低下するという有望な結果を示す。【JST・京大機械翻訳】