プレプリント
J-GLOBAL ID:202202218492827681   整理番号:22P0183894

自己競合ニューラルネットワーク【JST・京大機械翻訳】

Self-Competitive Neural Networks
著者 (2件):
資料名:
発行年: 2020年08月22日  プレプリントサーバーでの情報更新日: 2020年08月22日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層ニューラルネットワーク(DNN)は,多くのアプリケーションにおける分類問題の精度を改善した。DNNを訓練する際の課題の一つは,その精度を高め,過剰適合に苦しむため,豊富なデータセットにより供給する必要がある。DNNの一般化を改善する一つの方法は,新しい合成広告サンプルによる訓練データを強化することである。最近,研究者は,データ増強のための方法を提案した。本論文では,各クラスのアトラクション(DoAs)のドメインを精密化するために敵対サンプルを生成する。このアプローチでは,各段階で,DNNに複雑に見える方法で一次データを操作するために,一次および生成された敵対データ(その段階まで)によって学習されたモデルを使用した。次に,DNNを拡張データを用いて再訓練し,次に,それ自身に対して予測が困難な敵対データを生成した。DNNはそれ自身との競合によりその精度を改善しようとするので,この技術は自己競合ニューラルネットワーク(SCNN)と呼ばれる。そのようなサンプルを生成するために,ネットワーク重みを固定し,その真のラベルと最も近い誤ったラベルの境界にある敵対サンプルを合成するために勾配降下ベースの方法を使用する最適化タスクとして問題を提起した。実験結果は,SCNNを用いたデータ増強が元のネットワークの精度を著しく増大できることを示した。一例として,94.26%から98.25%までのMNISTデータセットの1000の限られた訓練データで訓練されたCNNの精度を改善することができた。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  パターン認識 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る