文献
J-GLOBAL ID:201802251034169912   整理番号:18A0518436

深CNNにおける前方および後方キューによる顕著性検出【Powered by NICT】

Saliency detection by forward and backward cues in deep-CNN
著者 (5件):
資料名:
巻: 2017  号: ICIP  ページ: 430-434  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
オブジェクトやオブジェクト特徴の事前知識は注意タスクに類似オブジェクトのための関係を作る助けとなるので,事前訓練された深層畳込みニューラルネットワーク(CNN)は,オブジェクトクラスネットワーク知識の有無に関係なく,画像上で顕著なオブジェクトを検出するために使用できる。本論文では,CNN,RGB画像からの1000物体ラベリングタスクのための訓練された弱教師つきCNNモデルを用いたトップダウン型顕著性モデルを提案した。モデルは,CNNから選択された特徴によって予測されたそれらの目的性スコアに基づく注意領域を検出する。顕著なオブジェクトを効率的に推定するために,順方向と逆方向の両方の特徴を結合し,部分的に導波バックプロパゲーションはCNNモデルの順方向操作からの特徴を選択するための十分な情報を提供するであろうことを示した。最後に,全体的な顕著性を補完するものとしてこれらのトップダウン手がかりが最新のボトムアップモデルで増大する。提案したモデルは,グランドトルースデータに監視または退行無しで目的性による前方および後方キューの有効な統合であるので,二つの異なるデータセットにおいて,最新のモデルに比べて有望な結果を与えた。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る