抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオにおけるシーンテキスト検出は多くの応用ニーズを持っているが,画像に比べてあまり注目を集めている。ビデオテキスト検出のための既存の方法は,空間的および時間的情報の不十分な利用のために満足行った。本論文では,ネットワークフローに基づくトラッキングとの新しいビデオテキスト検出方法を提案した。システムは最初に個々のフレームにおけるテキストを検出し,次に,動きベース法を用いた隣接フレームの提案を追跡するために新たに提案された完全畳込みニューラルネットワーク(FCN)に基づくシーンテキスト検出法を適用した。テキスト結合問題はコストネットワークに定式化し,最小コストフローアルゴリズムを用いたネットワークから導出したテキスト軌道。最後に,軌跡が精度精度を改善した。法は,ビデオのマルチ指向シーンテキストを検出し,空間的および時間的情報を効率的に組み込むことができる。実験結果は,この方法がICDARビデオシーンテキストデータセット上でATA平均追跡精度)の15.66%の増加により,例えば,ベンチマークデータセット上での検出性能を著しく改善することを示した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】