プレプリント
J-GLOBAL ID:202202212965597281   整理番号:22P0303809

敵対的ロバスト性のための知識蒸留の利点について【JST・京大機械翻訳】

On the benefits of knowledge distillation for adversarial robustness
著者 (3件):
資料名:
発行年: 2022年03月14日  プレプリントサーバーでの情報更新日: 2022年03月14日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
知識蒸留は,通常,大きなネットワーク,または教師を,その出力にマッチするように訓練することにより,小さなもの,学生に圧縮するために使用される。最近,いくつかの研究は,敵対攻撃に対するロバスト性が,モバイルフレンドリーなモデルに対するロバスト性の良い速度を達成するために効果的に蒸留できることを示した。しかし,本研究では,異なる視点を取り上げ,知識蒸留が,敵対的ロバスト性における最先端のモデルの性能を高めるために直接使用できることを示した。この意味で,著者らは徹底的分析を提示し,ロバストな教師から知識を蒸留し,さらに学生モデルのクリーンで敵対的な性能を高めるための一般的なガイドラインを提供した。そのために,著者らは,元のラベルと教師出力の混合物に関する学生を敵対的に訓練することから成る,モデルロバスト性能を改善するための新しいフレームワークである,Adversarial知識蒸留(AKD)を提示した。注意深く制御されたアブレーション研究を通して,早期停止,モデルアンサンブルおよび弱い敵対訓練を用いることが,学生の性能を最大化するための重要な技術であり,これらの洞察が,異なるロバスト蒸留技術にわたって一般化することを示した。最後に,学生ネットワークのダイナミクスに対するロバストな知識蒸留の影響に関する洞察を提供し,AKDがネットワークのキャリブレーションを改善し,モデルが学習するのが難しいか,または記憶するので,その訓練動力学を修正することを示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
データ保護 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る