抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究は,元の入力データとは異なる分布から追加データを利用する深層ニューラルネットワークの新しい訓練技術を提示する。この技法は,オーバーフィッティングを減らし,ネットワークの一般化性能を改善することを目的とする。提案技法,すなわち受動バッチ注入訓練技術(PBITT)は,L_2正則化やバッチ正規化のような過剰適合を低減するための標準技術を既に使用するネットワークにおける過剰適合のレベルを低下させ,顕著な精度改善をもたらす。受動バッチ注入訓練技術(PBITT)は,入力データ分布とは異なる分布からのデータを含む訓練プロセスに,少数の受動ミニバッチを導入する。この技術は最終モデルにおけるパラメータ数を増加させず,推論(テスト)時間を増加させないが,深いCNNの性能を改善した。著者らの知る限り,これは畳み込みニューラルネットワーク(CNN)の訓練を支援するための異なるデータ分布を利用した最初の研究である。標準アーキテクチャ:VGG,ResNet,WideResNet,およびいくつかのポピュラーなデータセット:CIFAR-10,CIFAR-100,SVHN,およびImageNetについて,提案アプローチを徹底的に評価した。提案技術を用いて一貫した精度改善を観測した。また,著者らの技法によって訓練されたモデルは,高速R-CNNを用いたMS-COCOデータセット上の物体検出のような他のタスクによく一般化することも示した。提案したアプローチを検証するために広範なアブレーションを示した。本アプローチはCIFAR-100データセットに対して2.1%の有意マージンによりVGG-16の精度を改善した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】