抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
人間は,動的世界に住んでいるので,映像のグループまたはビデオのいくつかのフレームからの学習によって,オブジェクトをマイニングする傾向がある。コンピュータビジョン領域において,多くの研究は,共電流オブジェクトを発見するための共セグメンテーション(CoS),共感性検出(CoSD)およびビデオ突出物体検出(VSOD)に焦点を合わせている。しかし,従来手法では,これらの類似タスクに関する異なるネットワークを別々に設計して,それらは互いに応用するのが困難であり,それは深い学習フレームワークの移転可能性の上限を下げる。さらに,それらは画像グループ内の特徴間および特徴間の手がかりを完全に利用できなかった。本論文では,UFO(Co-Objectセグメンテーションのための統一フレームワーク)として,これらの問題に取り組むための統一フレームワークを導入した。具体的には,まず,パッチトークンとして画像特徴を見る変圧器ブロックを導入し,次に自己注意機構を通してそれらの長距離依存性を捉える。これはネットワークが関連オブジェクト間のパッチ構造化類似性を掘削するのに役立つ。さらに,部分活性化を避けるためにネットワークを強化するために自己マスクを生成するMLP学習モジュールを提案した。4つのCoSベンチマーク(PASCAL,iCoseg,インターネットおよびMSRC),3つのCoSDベンチマーク(Cosal2015,CoSOD3k,およびCocA)および4つのVSODベンチマーク(DAVIS16,FBMS,ViSalおよびSegV2)に関する広範な実験は,著者らの方法が,同じネットワークアーキテクチャを用いて,精度および速度の両方において3つの異なるタスクに関して,他の最先端技術より優れていて,それはリアルタイムで140FPSに達することができることを示した。【JST・京大機械翻訳】