文献
J-GLOBAL ID:202202286731878087   整理番号:22A0202718

条件付き生成敵対ネットワークを用いたリモートセンシング画像のための柔軟な参照不感時空間融合モデル【JST・京大機械翻訳】

A Flexible Reference-Insensitive Spatiotemporal Fusion Model for Remote Sensing Images Using Conditional Generative Adversarial Network
著者 (4件):
資料名:
巻: 60  ページ: ROMBUNNO.5601413.1-13  発行年: 2022年 
JST資料番号: H0016B  ISSN: 0196-2892  CODEN: IGRSD2  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
リモートセンシング画像の空間と時間分解能の間のトレードオフのため,時空間融合モデルを提案して,高時空画像系列を合成した。現在,空間時間融合モデルは,予測日において得られた1つの粗い解像度画像と,予測日に関する微細解像度画像を導くための参照として,予測時間に近い,少なくとももう1対の粗い微視分解能画像を用いる。開発の後,モデル精度は,ある改良を得たが,ほとんど,すべてのモデルは,少なくとも3つの画像入力を必要として,剛直な時間制約は,融合精度を保証するために参考に適用しなければならない。しかし,実際の応用においていくつかの困難を引き起こす,粗な天候条件または粗い四角形分解能データソース間の時間不整合のため,実際には,精密解像度画像系列シミュレーションのための適切なデータペアを収集するのは,必ずしも容易ではない。本論文は,時空間融合問題への条件付き生成敵対ネットワーク(CGAN)と切替可能正規化技術を紹介し,モデル入力の数を減らし,参照画像選択の時間制限を破るために,GANベースSpatioporal Fusion Model(GAN-STFM)と名付けた柔軟な深層ネットワークを提案する。GAN-STFMは,モデル入力のための同じ領域における任意の時間で,予測日と別の微細解像度基準画像に粗い解像度画像を必要とする。知る限りでは,これは,モデル入力として2つの画像のみを必要とする最初の時空間融合モデルであり,参照の取得時間に制限がない。そうであっても,GAN-STFMは,実験において他の古典的融合モデルより,または,より良く機能した。この改善により,空間時間融合のためのデータ準備は以前よりも非常に容易であり,実用化のための有望な展望を示した。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
リモートセンシング一般  ,  写真測量,空中写真  ,  図形・画像処理一般 

前のページに戻る