文献
J-GLOBAL ID:202202287421942468   整理番号:22A0397877

CNNがビジョン変圧器に出会うとき:遠隔センシングシーン分類のための結合フレームワーク【JST・京大機械翻訳】

When CNNs Meet Vision Transformer: A Joint Framework for Remote Sensing Scene Classification
著者 (3件):
資料名:
巻: 19  ページ: ROMBUNNO.8020305.1-5  発行年: 2022年 
JST資料番号: W1397A  ISSN: 1545-598X  CODEN: IGRSBY  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
セン分類はリモートセンシング画像解釈の不可欠な部分であり,様々な畳み込みニューラルネットワーク(CNN)ベースの方法は分類精度を改善するために探索されてきた。それらは高分解能リモートセンシング(HRRS)画像で良好な分類性能を示したが,抽出した特徴の識別能力はまだ限られている。本レターでは,HRRSシーン分類のための特徴の識別能力をさらに高めるために,CNNとビジョン変圧器(ViT)(CTNet)を組み合わせた高性能共同フレームワークを提案した。CTNet法は,ViT(Tストリーム)の流れとCNN(Cストリーム)の流れを含む2つのモジュールを含む。Tストリームでは,HRRS画像における意味特徴をマイニングするために,平らかな画像パッチを事前訓練されたViTモデルに送付した。Tストリームを補完するために,事前訓練CNNをCストリームにおける局所構造特性を抽出するために転送する。次に,意味的特徴と構造的特徴を,未知サンプルのラベルを予測するために連結する。最後に,ジョイント損失関数を開発し,関節モデルを最適化し,クラス内凝集を増加させた。CTNet法によって得た空中画像データセット(AID)と北西ポリ技術大学(NUPU)-RESISC45データセットの最高精度は,それぞれ97.70%と95.49%であった。分類結果は,提案方法が他の最先端技術(SOTA)法と比較して高い分類性能を達成することを明らかにした。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 

前のページに戻る