文献
J-GLOBAL ID:202202250058234558   整理番号:22A0287463

SCAF-Net:空中画像における車両検出のためのシーンコンテキスト注意ベース融合ネットワーク【JST・京大機械翻訳】

SCAF-Net: Scene Context Attention-Based Fusion Network for Vehicle Detection in Aerial Imagery
著者 (5件):
資料名:
巻: 19  ページ: ROMBUNNO.3508305.1-5  発行年: 2022年 
JST資料番号: W1397A  ISSN: 1545-598X  CODEN: IGRSBY  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
近年,深層学習法は空中画像における車両検出タスクに対して大きな成功を達成した。しかしながら,ほとんどの既存の方法は,潜在的車両ターゲット特徴を抽出することのみに焦点を当て,そして,重要な事前知識としてシーンコンテキストをめったに考慮していない。本レターでは,シーンコンテキストの注意ベース融合ネットワーク(SCAF-Net)を提案し,車両のシーンコンテキストをエンドツーエンド車両検出ネットワークに融合させた。最初に,できるだけ大規模の生空中画像における元のターゲットとシーンコンテキスト情報を保つために,新しい戦略,パッチカバーを提案した。次に,SCAF-Netの1つの分岐として改良YOLO-v3ネットワークを用いて,各パッチ上の車両候補を生成した。ここでは,シーンコンテキストの新しい分岐を利用して,余分なアノテーションなしに各パッチ上の車両の潜在シーンコンテキストを抽出した。次に,上記の2つの分岐を融合ネットワークとして一緒に連結して,著者らは,各々の局所場面の車両候補をさらに抽出するために注意ベースのモデルを適用した。最後に,異なるパッチのすべての車両候補を,全体的非最大抑制(g-NMS)によって併合して,全体のオリジナル画像の検出結果を出力した。実験結果は,著者らの提案方法が,高い検出精度と速度の両方を有する比較方法より優れていることを証明した。このコードはhttps://github.com/minghuicode/SCAF-Netで放出される。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 

前のページに戻る