文献
J-GLOBAL ID:202002260216364931   整理番号:20A0957060

ロバストなシーン表現を学習するための深い多重インスタンス畳込みニューラルネットワーク【JST・京大機械翻訳】

Deep Multiple Instance Convolutional Neural Networks for Learning Robust Scene Representations
著者 (5件):
資料名:
巻: 58  号:ページ: 3685-3702  発行年: 2020年 
JST資料番号: H0016B  ISSN: 0196-2892  CODEN: IGRSD2  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
シーン分類の精度と効率性は,深い畳込みニューラルネットワーク(CNNs)の広範囲な応用によって著しく改良した。しかし,標準的なCNNは,最終的に完全に接続された層からの全体的特徴に基づいて画像を分類する。それは,識別的局所情報の否定と様々な空間変換に対する感度を引き起こす可能性がある。本論文では,複数インスタンス学習(MIL)の観点からシーン分類の問題を考察し,よりロバストなシーン表現を学習するためのエンドツーエンド多重インスタンスCNN(MI-CNN)を提案した。MI-CNNにおいて,シーンは局所パッチ(インスタンス)のバッグとして表現される。瞬間レベル分類器を訓練し,MIL様式における各パッチのラベルを得て,分類器を弁別局所パッチにより敏感にした。次に,パッチラベルを,局所パッチの順序に不変で,よりロバストな表現を構築する助けとなるMILプール層により,画像ラベルに集約した。著者らは,UC Mered Land use(UCM),Aerial画像データセット(AID),およびNWPU-RESUSC(NWPU)データセットに関する広範な実験を提示した。実験結果は,提案方法が標準CNNと比較して,90%のパラメータ減少で1.17%,1.70%,および3.61%の精度改善を達成することを示した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  パターン認識 

前のページに戻る