抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層学習モデルは,その入力の小さいが意図的に選択された摂動に対して極めて脆弱であることが報告されている。特に,クリーン画像でのその近最適精度にもかかわらず,深いネットワークは,最悪ケースの画像を誤って分類するが,しかし,人間的に知覚できない摂動(いわゆる敵対例)を誤分類する。この問題に取り組むために,そのロバスト性を改善するために,ネットワークの訓練手順を研究するために大量の研究がなされてきた。しかしながら,今までのほとんどの研究は,教師つき学習の事例に焦点を合わせてきた。自己監督学習法の人気の増加とともに,下流タスクに関するそれらの結果表現のロバスト性を研究し,改善することも重要である。本論文では,タスク診断方法でラベルなしデータによるロバスト表現学習の問題を研究した。具体的には,まず,クリーンデータ上の損失とロバスト性正則化器を用いて,任意の下流タスクにおける予測モデル(学習表現に基づく)の敵対的損失に関する上限を導出した。さらに,正則化器はタスク非依存性であり,従って,下流予測モデルをよりロバストにするために,表現学習フェーズ中にそれを直接的に最小化することを提案する。広範な実験は,著者らの方法が関連するベースラインと比較して好ましい敵対性能を達成することを示した。【JST・京大機械翻訳】