抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
公共ベンチマークに関する高性能の追求は,シーンテキスト認識における研究に対する推進力であり,顕著な進展を達成した。しかし,最先端の方法は語彙内の単語を持つ画像上でよく機能するが,語彙外語で画像にはほとんど一般化しないことを,綿密な調査が明らかにした。この現象を,‘‘vo的信頼と呼ぶ。本論文では,定量的比較のための異なるデータセット,メトリックスおよびモジュールの組み合わせが考案された分析フレームワークを確立し,シーンテキスト認識における語彙依存の問題に関する徹底的な研究を行う。(1)Vocabulary依存はユビキタスであり,すなわち,すべての既存のアルゴリズムはそのような特性を示す。(2)注意ベースの復号器は,語彙外で単語を一般化するのに弱いことを証明し,セグメンテーションベースの復号器は視覚特徴の利用においてよく機能した。(3)文脈モデリングは予測層と高度に結合している。これらの知見により,新しい洞察を提供し,さらに,シーンテキスト認識における将来の研究に利益を与えることができ,協調的に学習するために,2つの家族(注意ベースおよびセグメンテーションベース)のモデルを可能にするための単純だが効果的な相互学習戦略を提案した。この改善は語彙依存の問題を軽減し,全体的シーンテキスト認識性能を著しく改善する。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】