プレプリント
J-GLOBAL ID:202202213533941476   整理番号:22P0306328

改善されたロバスト性のための自己アンサンブル敵対訓練【JST・京大機械翻訳】

Self-Ensemble Adversarial Training for Improved Robustness
著者 (2件):
資料名:
発行年: 2022年03月17日  プレプリントサーバーでの情報更新日: 2022年05月03日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
機械知能によりもたらされる実世界アプリケーションにおける多数のブレークスルーにより,深いニューラルネットワーク(DNN)は,臨界アプリケーションにおいて広く採用されている。しかし,DNNの予測は,DNNの更なる展開を妨げて,大きなセキュリティとプライバシーの意味をもたらすかもしれない,知覚不能な敵対的摂動によって容易に操作される。訓練データプールに広告サンプルを組み込むことにより,敵対訓練は,すべての種類の防御法の中で,様々な敵対攻撃に対する最強の原則戦略である。最近の研究は,主に新しい損失関数または正則化器の開発に焦点を当て,重量空間におけるユニークな最適点を見出すことを試みる。しかし,それらのいずれも,標準敵対訓練,特に訓練の検索軌道に関する状態から得た分類器のポテンシャルをタップする。本研究では,訓練過程を通してモデルの重み状態に専念し,履歴モデルの重みを平均化することによってロバスト分類器を生成するための単純だが強力なSelf-Ensemble Adversarial訓練(SEAT)法を考案した。これは,いくつかのよく知られた敵対攻撃に対する目標モデルのロバスト性をかなり改善し,これは,単に,スーパーバイスに対するナイーブ交差エントロピー損失を利用する。また,異なる敵対的に訓練されたモデルからの予測のアンサンブルと,重み集合モデルの予測の間の関係を議論し,また,提案した自己アンサンブル法は,個々のモデルおよび異なる分類器からの予測のアンサンブルの両方よりも,より滑らかな損失景観およびより良いロバスト性を提供する,理論的および経験的証拠を提供した。さらに,自己アンサンブルモデルのための一般的設定における微妙なが致命的な問題を分析し,それは後期相における重み集合法の劣化を引き起こす。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
データ保護  ,  人工知能  ,  ニューロコンピュータ 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る