文献
J-GLOBAL ID:202002252653093282   整理番号:20A2282655

受動バッチ注入トレーニング技術:異なるデータ分布からのミニバッチ注入によるネットワーク性能のブースティング【JST・京大機械翻訳】

Passive Batch Injection Training Technique: Boosting Network Performance by Injecting Mini-Batches from a different Data Distribution
著者 (3件):
資料名:
巻: 2020  号: IJCNN  ページ: 1-8  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究は,元の入力データとは異なる分布から追加データを利用する深層ニューラルネットワークの新しい訓練技術を提示する。この技法は,オーバーフィッティングを減らし,ネットワークの一般化性能を改善することを目的とする。提案技法,すなわち受動バッチ注入訓練技術(PBITT)は,L_2正則化やバッチ正規化のような過剰適合を低減するための標準技術を既に使用するネットワークにおける過剰適合のレベルを低下させ,顕著な精度改善をもたらす。受動バッチ注入訓練技術(PBITT)は,入力データ分布とは異なる分布からのデータを含む訓練プロセスに,少数の受動ミニバッチを導入する。この技術は最終モデルにおけるパラメータ数を増加させず,推論(テスト)時間を増加させないが,深いCNNの性能を改善した。著者らの知る限り,これは畳み込みニューラルネットワーク(CNN)の訓練を支援するための異なるデータ分布を利用した最初の研究である。標準アーキテクチャ:VGG,ResNet,WideResNet,およびいくつかのポピュラーなデータセット:CIFAR-10,CIFAR-100,SVHN,およびImageNetについて,提案アプローチを徹底的に評価した。提案技術を用いて一貫した精度改善を観測した。また,著者らの技法によって訓練されたモデルは,高速R-CNNを用いたMS-COCOデータセット上の物体検出のような他のタスクによく一般化することも示した。提案したアプローチを検証するために広範なアブレーションを示した。本アプローチはCIFAR-100データセットに対して2.1%の有意マージンによりVGG-16の精度を改善した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 

前のページに戻る