文献
J-GLOBAL ID:202202258954481328   整理番号:22A1086146

CCAFNet:RGB-D画像における顕著なオブジェクト検出のためのクロスフローとクロススケール適応融合ネットワーク【JST・京大機械翻訳】

CCAFNet: Crossflow and Cross-Scale Adaptive Fusion Network for Detecting Salient Objects in RGB-D Images
著者 (5件):
資料名:
巻: 24  ページ: 2192-2204  発行年: 2022年 
JST資料番号: W1116A  ISSN: 1520-9210  CODEN: ITMUF8  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深さセンサの広範な採用のために,信頼できる相補的情報のための深さマップによってサポートされた顕著な物体検出(SOD)は,ますます調査されている。既存のSODモデルは,主にRGB画像とその対応する深さ情報間の関係を3つの融合領域(入力RGB-D画像,抽出した特徴マップ,および出力突出物体)を通して利用する。しかし,これらのモデルは,高および低レベル情報間の直交流を良好に利用しない。さらに,これらのモデルの復号器は,いくつかの計算を含む従来の畳込みを用いる。RGB-D SODをさらに改善するために,RGB-D画像における顕著な物体を検出するために,交差流および交差スケール適応融合ネットワーク(CCAFNet)を提案した。最初に,チャネル融合モジュールは,有効融合深さと高レベルRGB特徴を可能にした。このモジュールは,高レベルRGB特徴から正確な意味情報特徴を抽出する。一方,空間融合モジュールは,正確な境界で低レベルRGBと深さ特性を結合して,次に低レベル深さ特徴から詳細な空間情報を抽出する。最後に,顕著な物体の境界を正確に学習し,物体の付加的詳細を得るために,精製損失を提案した。7つの一般的RGB-D SODデータセットに関する包括的実験の結果は,提案したCCAFNetの性能が最先端のRGB-D SODモデルのそれらに匹敵することを示した。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 

前のページに戻る