抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
例えばセグメンテーションおよびオブジェクトトラッキング深層学習の最近の進歩に触発されて,ビデオオブジェクトセグメンテーションに適用されるconvnetベース指導の概念を導入した。著者らのモデルはフレーム当り基底,次のフレームにおける関心オブジェクトに向けて,以前のフレームの出力により誘導された上で進行した。ビデオにおける高度に正確なオブジェクトセグメンテーションは,静止画像のみを用いて訓練された畳込みニューラルネットワーク(convnet)を用いて可能にできることを実証した。著者らのアプローチの重要な要素は,オフラインとオンライン学習戦略の組み合わせであり,前者は前のフレーム推定から洗練されたマスクを生成し,後者は,特定のオブジェクトインスタンスの出現を捉えることを可能にした。著者らの方法は,境界ボックスとセグメントのような入力アノテーションの異なるタイプを扱うことができる任意量注釈付きフレームを活用した。従ってこのシステムは精度と効率の点で異なる要件を持つ多様な用途に適している。著者らの広範な評価では,三種類の異なるデータセット上で比肩可能な結果を得るために,入力アノテーションのタイプとは無関係であった。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】