文献
J-GLOBAL ID:201702260434871665   整理番号:17A1398526

顕著な物体検出のための訓練マスクを移植することによる局所事前確率を学習する【Powered by NICT】

Learn local priors by transferring training masks for salient object detection
著者 (3件):
資料名:
巻: 2017  号: ICME  ページ: 1141-1146  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文において,筆者らはこの二種のアイデアに基づく顕著なオブジェクトを自動的に同定するための高レベル誘導と低レベル特徴を組み込むための新しいフレームワークを提案した。最初のものは,視覚顕著性をコードする前に特定の位置を考慮し,一方,第二の方法は,背景領域に関してコントラストを用いた画像顕著性を推定した。提案フレームワークは以下の三ステップから成る:a)トップダウン過程:特定位置顕著性マップ(SlSm)を学習する。具体的には,各画像ウィンドウ(パッチ)のための,類似した外観を用いた画像の窓の集合は,訓練画像集合から検索し,対応するセグメンテーションマスクは前マップ,顕著物体検出を導くを生成する直線的に統合された。2)ボトムアッププロセス:多層セグメンテーションフレームワークを採用した,これはSLSMにより指定された膨大なロバスト背景候補領域を提供する。背景コントラスト顕著性マップ(BCSM)は低レベル画像刺激特徴に基づいて計算した。SLSMとBCSMを最終的にピクセルベース顕著性マップを生成するために統合した。包括的な実験を行い,提案アプローチでは,MSRA1000とSEDデータセット上で比肩可能な結果を達成し,各画像は一つ以上の顕著なオブジェクトを含んでいることが分かった。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般 

前のページに戻る