抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
視覚分類は粗粒と細粒の分類に分割できる。粗粒分類は,ネコとイヌの分類のような大きな非類似性を持つカテゴリーを表し,一方,細粒分類は,ネコ種,鳥類種,および自動車のモデルのような大きな類似性を持つ分類を表す。粗粒視覚分類とは異なり,微細粒視覚分類は,データをラベル付けするための専門的専門家を必要とすることが多いが,これはデータをより高価にする。この課題に応えるために,多くのアプローチが,最も識別可能な領域を自動的に発見し,より精密な特徴を提供するために,局所特徴を使用することを提案する。これらの手法は画像レベルアノテーションのみを必要とし,それによってアノテーションのコストを低減する。しかし,これらの方法のほとんどは,2段階または多段アーキテクチャを必要とし,エンドツーエンドに訓練できない。したがって,CNNベースまたは変換ベースネットワークを含む多くの共通バックボーンに統合できる新しいプラグインモジュールを提案し,強い識別領域を提供した。プラグインモジュールは,画素レベル特徴マップを出力し,微細粒視覚分類を強化するためにフィルタフィルタを融合できる。実験結果は,提案したプラグインモジュールが最先端の手法よりも優れ,CUB200-2011とNABirdsのそれぞれ92.77%と92.83%に精度を大幅に改善することを示した。著者らは,Github https://github.com/chou141253/FGVC PIM.gitにおいて著者らのソースコードを解放した。【JST・京大機械翻訳】