プレプリント
J-GLOBAL ID:202202200961179126   整理番号:22P0026256

セマンティックセグメンテーションのためのピラミッド融合変圧器【JST・京大機械翻訳】

Pyramid Fusion Transformer for Semantic Segmentation
著者 (7件):
資料名:
発行年: 2022年01月11日  プレプリントサーバーでの情報更新日: 2023年05月30日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近提案されたMaskformerは,意味的セグメンテーションのタスクに関するリフレッシュな展望を与える:それはポピュラーなピクセルレベル分類パラダイムからマスクレベル分類法へシフトする。本質的に,それはカテゴリセグメントに対応する対確率とマスクを生成し,セグメンテーションマップのための推論中にそれらを結合する。本研究では,単一スケール特徴のトップにおけるマスクごとの分類復号器は,信頼できる確率またはマスクを抽出するのに十分に有効でないことを見出した。特徴ピラミッドを横断する豊富な意味情報をマイニングするために,マルチスケール特徴を持つパーマスクアプローチの意味セグメンテーションのための変圧器ベースのピラミッド融合変換器(PFT)を提案した。提案した変圧器復号器は,並列に特徴ピラミッドから学習可能クエリと各空間特徴の間の交差アテンションを実行し,そして,コンプリメント情報を交換するために,クロススケール相互クエリー注意を使用する。3つの広く使われている意味的セグメンテーションデータセットで競合性能を達成した。特に,ADE20K検証セットにおいて,Swin-Bバックボーンによる結果は,単一スケールおよびマルチスケール推論において,はるかに大きいSwin-Lバックボーンを有するMaskformerのそれを凌駕し,54.1mIoUおよび55.7mIoUを達成した。Swin-Lバックボーンを用いて,単一スケール56.1mIoUとマルチスケール57.4mIoUを達成し,データセット上で最先端の性能を得た。3つの広く使用されたセマンティックセグメンテーションデータセットに関する大規模な実験は,著者らの提案した方法の有効性を証明した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る