プレプリント
J-GLOBAL ID:202202203072412756   整理番号:22P0213037

深層学習における不確実性の再考:Whetherとロバスト性の改善【JST・京大機械翻訳】

Rethinking Uncertainty in Deep Learning: Whether and How it Improves Robustness
著者 (5件):
資料名:
発行年: 2020年11月26日  プレプリントサーバーでの情報更新日: 2020年11月26日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層ニューラルネットワーク(DNN)は敵対攻撃の傾向があることが知られており,そのために多くの修復が提案される。敵対訓練(AT)は,最もロバストな防御と考えられているが,それは,クリーン例と,他のタイプの攻撃,例えば,より大きな摂動による攻撃の下で,貧弱な性能に悩まされる。一方,エントロピー最大化(EntM)とラベル平滑化(LS)のような不確実な出力を奨励する正則化器は,クリーン事例で精度を維持し,弱い攻撃の下で性能を向上することができるが,強い攻撃に対して防御する能力はまだ疑問である。本論文では,敵対学習の分野において,EntMとLSを含む不確実性促進正則化器を再考した。EntMとLSだけでは,小さな摂動の下でのみロバスト性を提供することを示した。反対に,不確実性促進正則化器は,原則的にATを補完し,クリーン例と様々な攻撃,特に大きな摂動による攻撃の両者で性能を改善することを示した。さらに,不確実性促進正則化器が,Jacobi行列ΔΨ_Xf(X;θ)の展望からATの性能をどのように強化するかを分析し,EntMがJacobi行列のノルムを効果的に縮小し,従ってロバスト性を促進することを見出した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  データ保護 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る