文献
J-GLOBAL ID:201702275260116910   整理番号:17A0349927

背景学習に基づく顕著な物体検出【JST・京大機械翻訳】

Salient object detection based on background learning
著者 (3件):
資料名:
巻: 21  号: 12  ページ: 1634-1643  発行年: 2016年 
JST資料番号: C2782A  ISSN: 1006-8961  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 中国 (CHN)  言語: 中国語 (ZH)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
目的:物体検出の目標は,与えられた画像の中で最も注目されている物体または領域を抽出することであり,物体認識,画像表示,物体分割,ターゲット検出などの多くのコンピュータビジョンの分野で広く使用されている。局所的あるいは大域的コントラストに基づく顕著な物体検出法は,複雑な内容の画像を処理する際に,検出失敗を起こしやすく,その主な原因は,コントラスト基準領域の設定の不合理性をまとめることができる。顕著な物体検出の完全性を向上させるために,バックグラウンド駆動のための顕著な物体検出アルゴリズムを提案して,バックグラウンド値の推定と最適化において事前に使用した。方法:まず第一に,畳込み神経回路網を用いて画像の背景分布を学習し,次に背景画像から背景領域を分割し,コントラスト領域として背景領域を分割した。最終的に,領域の顕著な値の一貫性を向上させるために,強化されたグラフモデルに基づく最適化領域の拡散値,すなわち,従来のK-正則と一部の間の事前接続と背景ノードの間の非局所的リンクを追加することによって,バックグラウンドの事前情報の埋め込みを実現する。結果:公開したASD、SED、SODとTHUS-10000データベースにおいて実験検証を行い、9種類の流行のアルゴリズムと比較した。4つのデータベースの平均精度,再現率,F-MEASUREおよびMAE指数は,それぞれ0.873,,,0.844および0.112であり,それは現在の流行アルゴリズムよりも優れていた。【結論】コントラスト領域として背景領域を用いることによって,前景領域の顕著な値を改善することができた。畳込みニューラルネットワークは,画像の背景分布を効果的に学習し,背景領域を分割することができる。強化グラフモデルに基づく最適化は,前景と背景領域における顕著な値の拡散をさらに実現し,地域の顕著な値の整合性を向上させ,背景領域の顕著な応答を抑制する。実験結果は,提案したアルゴリズムが正確に画像の領域を検出することができ,複雑な画像の物体検出や物体分割に適用できることを示した。Data from the ScienceChina, LCAS. Translated by JST【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る