抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
高空間分解能リモートセンシング(HSRRS)画像は複雑な幾何学的構造と空間パターンを含み,従って,HSRRSシーン分類はリモートセンシングコミュニティにおいて大きな課題となっている。近年,畳み込みニューラルネットワーク(CNN)ベースの方法は,大きな注目を集めて,場面分類において優れた性能を得た。しかしながら,従来のCNNベースの方法は,シーン表現を達成するために,元の赤-緑青(RGB)画像ベースの特徴またはCNNベースの単層特徴を処理することに焦点を合わせ,CNNのテクスチャ画像または各層が識別情報を含むことを無視する。上記の欠点に取り組むために,CTFCNNと呼ばれるCaffeNetベースの方法を提案して,本論文における事前訓練CNNの識別能力を効果的に調査した。最初に,事前訓練CNNモデルを,多重層,完全接続(FC)特徴,および局所二値パターン(LBP)ベースFC特徴から畳込み特徴を得るための特徴抽出器として採用した。次に,各畳込み層からの識別情報を表現するために,新しい改良バッグオブビューワード(iBoVW)符号化法を開発した。最後に,加重連結を採用して,分類のために種々の特徴を結合した。UC-MercedデータセットとAerial Image Dataset(AID)に関する実験は,提案したCTFCNN法が,いくつかの最先端の方法よりも著しく優れており,全体の精度が,それぞれ,98.44%と94.91%に達することを示した。これは,提案フレームワークがHSRRS画像の識別記述を提供できることを示した。Copyright 2021 The Author(s) All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】