抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近のビデオテキストスポッティング法は,通常3段階パイプライン,即ち,個々の画像におけるテキストの検出,局所テキストの認識,後処理によるテキストストリームの追跡,最終結果を生成するための後処理を必要とする。これらの方法は,典型的には,追跡ごとのパラダイムに従い,洗練されたパイプラインを開発する。本論文では,変換器シーケンスモデリングにおいて,単純だが効果的なエンドツーエンドビデオテキストDEtection,トラッキング,および認識フレームワーク(TransDETR)を提案した。トランスDETRは主に2つの利点を含む。1)隣接フレームにおける明示的マッチパラダイムと異なり,トランスDETRトラックは,長範囲時間シーケンス(7フレーム以上)にわたってテキストクエリと呼ばれる異なるクエリによって暗黙的に各テキストを認識する。2)トランスDETRは,3つのサブタスク(例えば,テキスト検出,トラッキング,認識)を同時に扱う最初のエンドツーエンド訓練可能なビデオテキストスポッティングフレームワークである。4つのビデオテキストデータセット(即ち,ICDAR2013ビデオ,ICDAR2015ビデオ,Minetto,およびYouTubeビデオText)における広範な実験を行い,TransDETRがビデオテキストスポットタスクにおいて約8.0%の改善まで最先端の性能を達成することを実証した。トランスDETRのコードは,https://github.com/weijiawu/TransDETRで見つけることができる。【JST・京大機械翻訳】