抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ほとんどの最近の半教師つきビデオオブジェクトセグメンテーション(VOS)法は,最初のフレームの与えられたマスクまたはその後のフレームの予測されたマスクを用いてオンラインの微調整深畳込みニューラルネットワークに頼っている。しかし,オンライン微調整プロセスは,通常時間がかかり,そのような方法の実用化を制限する。高速VOSのためのオンライン微調整プロセスのない,方向性深い埋込みと外観学習(DDEAL)法を提案した。最初に,並列畳み込み演算によって効率的に実装できる大域的方向マッチングモジュールを,内部誘導としてセマンティックピクセルワイズ埋込みを学習するために提案した。第2に,VOSのための球面埋込み空間に関する目標とバックグラウンドを表現するために,効果的方向外観モデルベースの統計を提案した。グローバル方向マッチングモジュールと方向性外見モデル学習モジュールによって,DDEALはラベル付き最初のフレームから静的キューを学習して,オブジェクトセグメンテーションのために次のフレームの手がかりを動的に更新する。この方法は,オンライン微調整を用いずに最先端のVOS性能を示した。特に,それはDAVIS2017データセットで74.8%のJ&F平均スコアと大規模YouTube-VOSデータセットで71.3%の全体的スコアGを達成し,一方,単一NVIDIA TITAN Xp GPUで25fpsの速度を保持した。さらに,著者らのより速いバージョンは,ほんの少しの精度損失で31fpsを実行する。このコードと訓練されたネットワークはhttps://github.com/YingjieYin/Directional Deep Embedding and Appearance Learning for Fast Video Object Segmentationで利用可能である。【JST・京大機械翻訳】