文献
J-GLOBAL ID:202002283926493988   整理番号:20A2462625

自己キャリブレーション型デライニングネットワークに対する自己注意とスケール集約の結合【JST・京大機械翻訳】

Joint Self-Attention and Scale-Aggregation for Self-Calibrated Deraining Network
著者 (4件):
資料名:
号: MM ’20  ページ: 2517-2525  発行年: 2020年 
JST資料番号: D0698C  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
マルチメディアの分野において,単一画像脱線は基本的な前処理作業であり,それは降雨条件におけるその後の高レベルタスクの視覚効果を大いに改良することができる。本論文では,JDNetと呼ばれる効果的なアルゴリズムを提案し,単一画像雑音除去問題を解き,アプリケーションのためのセグメンテーションと検出タスクを行う。特に,マルチスケール特徴に関する重要な情報を考慮して,スケール-集合モジュールを提案して,異なるスケールを有する特徴を学習した。同時に,自己拡張モジュールを導入し,それらの畳込み対応物を整合または凌駕し,各チャネルに順応する特徴集合を可能にした。さらに,畳込みニューラルネットワーク(CNN)の基本畳込み特徴変換プロセスを改善するために,自己較正畳込みを適用して,内部通信を通して各畳込み層の視野を明示的に拡張し,従って出力特徴を豊かにする各空間位置周辺の長距離空間およびチャネル間依存性を構築した。自己較正畳み込みスキルを有するスケール集合と自己拡張モジュールを設計することによって,提案モデルは,実世界と合成データセットの両方に関してより良い脱線結果を有した。最新の方法と比較して,著者らの方法の優位性を実証するために,広範な実験を行った。ソースコードはhttps://supercong94.wixsite.com/supercong94で利用可能である。Please refer to this article’s citation page on the publisher website for specific rights information. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  人工知能 

前のページに戻る