抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,シーン画像におけるテキストの語彙によらない認識へのアプローチを提案した。著者らのアプローチは,畳込み特徴から学んだLSTMベースソフト視覚的注意モデルに依存している。1式の特徴ベクトルは画像の異なる領域に対応する中間畳込み層から導出した。これは空間情報の符号化画像表現を可能にした。このようにして,フレームワークは,画像の異なる部分に焦点を当てた選択的に方法を学ぶことができた。毎時間ステップで認識を学んだ注意モデルに従って畳込み特徴ベクトルの重みづけ組合せを用いた1特性を示した。訓練は単語レベルアノテーションを用いたエンドツーエンドを行うことができる。添加では,明示的な言語モデルを統合することによりビーム探索アルゴリズムを大きく変えるより良好な認識結果をもたらすことを示した。標準SVTとICDAR’03シーンテキストデータセット上で提案アプローチの性能,制約のないテキスト認識における最先端技術の性能を検証した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】