文献
J-GLOBAL ID:201902273818603504   整理番号:19A1190991

畳込みニューラルネットワーク(CNN)に基づく赤外線可視画像融合【JST・京大機械翻訳】

Infrared-Visible Image Fusion Based on Convolutional Neural Networks (CNN)
著者 (13件):
資料名:
巻: 11266  ページ: 301-307  発行年: 2018年 
JST資料番号: H0078D  ISSN: 0302-9743  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: ドイツ (DEU)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
画像融合は,完全なコンテンツ情報を保存し,オリジナル画像の各々から重要な特徴を保持する目的で,同一シーンの複数画像を単一画像に結合するプロセスである。本論文では,畳込みニューラルネットワーク(CNN)と顕著性検出に基づく新しい画像融合法を提案した。ここでは,赤外可視画像融合のために最適化したCNNネットワークから導出した画像表現を用いた。ネットワークの下層がオリジナル画像の正確な値を設定することができるので,ネットワークの高い層は入力画像におけるオブジェクトとそれらの配置に関して高レベルコンテンツを捉えることができて,著者らは融合における可視画像のより低い層特徴と赤外線画像のより高い層特徴を利用した。そして,融合手順の間,赤外線画像の赤外線ターゲットは,顕著性検出法を用いて効果的に強調され,赤外線画像の顕著な情報のみが融合される。この方法は,可能な限り可視画像から豊富な詳細情報を保存することを目的とし,一方,赤外線画像における顕著な情報を保存することを目的とした。実験結果は,提案した融合法がかなり有望であることを示した。Copyright 2018 Springer Nature Switzerland AG Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般  ,  リモートセンシング一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る