抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
白板と手書きノートの画像からのテキストの検出は重要なまだ研究中のトピックである。本論文において,筆者らはこの困難な問題を解くためのロバストな手法を提案した。最初に,カラー画像が与えられた時,colorenhanced対照的な極値領域(CER)を候補テキスト連結成分(CC)としてのグレースケール画像から抽出した。二四浅いニューラルネットワークを用いて,明確な非テキストCCの効率的に大部分をprepruneした。第三に,高速R CNNに基づくアプローチは,文脈情報を活用することにより残りのnontext CCsをフィルタリングし,各残りのテキストCCの位置に対応するテキスト行配向を推定するために提案される。第四に,一定の距離と方向制約内の残りのテキストCCsの各対が有向グラフを構築するために接続されている。最後に,推定したtextline配向に基づいて,候補文書ラインは各頂点が高々一つの直接後継と1つの直接先行を持たせるためのグラフにおける貪欲に冗長なエッジを枝刈りすることによって容易に生成した。著者らの提案した方法は,ホワイトボードと手書きノートの285カメラ画像から成る研究室内試験セットに有望な結果を達成した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】