文献
J-GLOBAL ID:201902282283852258   整理番号:19A2730240

AUTNT-新しいスクリプト不変特徴記述子とD-CNNによるテキスト非テキスト分類とベンチマーキングのためのコンポーネントレベルデータセット【JST・京大機械翻訳】

AUTNT - A component level dataset for text non-text classification and benchmarking with novel script invariant feature descriptors and D-CNN
著者 (2件):
資料名:
巻: 78  号: 22  ページ: 32159-32186  発行年: 2019年 
JST資料番号: W1102A  ISSN: 1380-7501  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: ドイツ (DEU)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
カメラ画像からの自動化シーンテキスト認識は,過去数十年を通して先駆的研究領域と考えられている。カメラ画像からの前景オブジェクト成分の分類は,テキスト情報抽出(TIE)の必須ステップである。複雑な文書画像と非構造化自然画像からのテキスト/非テキスト分離は依然として困難な課題である。この方向でいくつかの研究が報告されているが,特にテキスト/非テキスト分類のための成分レベル標準ベンチマークデータセットは利用できない。本論文において,テキストと非テキスト成分の新しいマルチスクリプトデータセットを,多目的グランドトルースアノテーションとともに報告した。また,新しい特徴集合を,このデータセット上でベンチマーク性能を設定するために,内側骨格点の距離情報に基づいて設計した。また,ベンチマーキング目的のために,Deep Convolution Neural Network(D-CNN)に基づく自動化特徴抽出と分類フレームワークを開発した。文献と自然シーンから生じた成分画像に関する現在の2つのベンチマーク方法の別々の評価を実施することによって,より多くの洞察を提唱した。実験結果により,分類精度は,内側骨格ベース特徴ディスクリプタに対して94.00%以上であり,そして,両タイプのソース上で,D-CNNフレームワークに対して96.00%以上であり,そしてそれは,実用的シナリオにおいて非常に印象的であった。Copyright 2019 Springer Science+Business Media, LLC, part of Springer Nature Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 

前のページに戻る