プレプリント
J-GLOBAL ID:202202212584703425   整理番号:22P0277054

整合増強分布による事前訓練ネットワークの性能向上【JST・京大機械翻訳】

Enhanced Performance of Pre-Trained Networks by Matched Augmentation Distributions
著者 (7件):
資料名:
発行年: 2022年01月19日  プレプリントサーバーでの情報更新日: 2022年01月19日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
訓練と試験の間に分布不一致が存在し,画像が現代のCNNに供給される。最近の研究は,異なる分解能でネットワークを微調整または再訓練することにより,このギャップを埋めることを試みた。しかし,ネットワークの再訓練は,稀に安価であり,常に実行可能ではない。この目的のために,列車テスト分布シフトを扱い,事前訓練モデルの性能を強化するための簡単な解決策を提案した。特に,画像の中心作物に関する実行推論は,重要な識別情報が作れるので必ずしも最良ではないことを示した。代わりに,テスト画像のために複数のランダム作物に対する結果を組み合わせることを提案した。これは,列車時間増大と一致するだけでなく,入力画像の全カバレッジも提供する。著者らは,異なるレベル,すなわち,深い特徴レベル,ロジットレベル,およびソフトマックスレベルの平均化を通して,ランダム作物の表現を組み合わせる。最新の深層ネットワークの様々なファミリーに対して,そのような平均化は,画像当たり単一中心作物と比較して,より良い検証精度をもたらすことを実証した。ソフトマックス平均化は,任意の再訓練あるいは微調整を要求せずに,様々な事前訓練ネットワークに対して最良の性能をもたらす。バッチ処理による最新のGPUでは,事前訓練ネットワークの推論への論文のアプローチは,バッチ内のすべての画像が一度に処理されるので,本質的に自由である。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  図形・画像処理一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る