文献
J-GLOBAL ID:201702267611408378   整理番号:17A0887527

画像特徴解析のためのランダム対照の学習弁別部分空間【Powered by NICT】

Learning Discriminative Subspaces on Random Contrasts for Image Saliency Analysis
著者 (5件):
資料名:
巻: 28  号:ページ: 1095-1108  発行年: 2017年 
JST資料番号: T0881A  ISSN: 2162-237X  CODEN: ITNNEP  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
視覚顕著性推定では,最も挑戦的な課題の一つは,ある視覚属性を共有することをターゲットと妨害成分を識別することである。特異的部分空間に射影された場合にこのような標的物とそれ以外の事物が容易に分離できるという観察を用いて,ターゲットを飛び出すと妨害成分を抑制するのに最良を実行する識別部分空間の集合を学習することによる画像顕著性を推定することを提案した。この目的のために,筆者らは最初に大量のランダムに選択された画像パッチの主成分分析を行った。それらはしばしば別々の標的と非標的に対する印象的な能力を示したので,最大固有値に対応する,主成分は候補部分空間を構築するために選択した。種々の部分空間上の画像の投影により,ランダムに選択された隣接と周辺領域に対するコントラストにより各画像パッチを特性化した。このようにして,可能性のある標的は,しばしば最高の応答を示すが,背景領域での応答は非常に低くなる。そのようなランダムコントラストに基づいて,対二元項を持つ最適化フレームワークは,種々の部分空間からの合図を統合する最適による顕著な標的物とそれ以外の事物を最も良く分離する顕著性モデルを学習するために採用した。二公共ベンチマーク上での実験結果により,提案した方法は,ヒト固定予測における16最先端レベル手法よりも性能的に優れていることを示した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る