文献
J-GLOBAL ID:201802268436161259   整理番号:18A0194857

多重解像度畳込みニューラルネットワークを用いた眼凝視を予測するための学習【Powered by NICT】

Learning to Predict Eye Fixations via Multiresolution Convolutional Neural Networks
著者 (4件):
資料名:
巻: 29  号:ページ: 392-404  発行年: 2018年 
JST資料番号: T0881A  ISSN: 2162-237X  CODEN: ITNNEP  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
自然情景を見る自由の場合の眼球運動は局所的に,全体的なコントラスト,およびトップダウン視覚因子によって導かれると信じられている。多くの以前の研究は,数年に対するこれら三つの顕著性キューを調べたが,それらをモデル化し,それらを効果的に統合するかの改善の余地が存在する。眼固定,同時に生の画像データからこれら三種類の顕著性キューのを推定するための多重解像度畳込みニューラルネットワーク(Mr CNN)を採用したを予測するための新しい計算モデルを提案した。提案したMr CNNは異なる背景を持つ多重解像度入力画像領域を持つ固定とnonfixation画素から直接訓練した。標識として入力と注視点として画素を利用した。局所およびグローバルの両方のコントラストでは複数のコンテキストにおける情報融合により学習される。一方,より高い層における学習される種々のトップダウン因子。最後に,トップダウン因子とボトムアップコントラストの最適な組み合わせは,注視点を予測するために学ぶことができる。提案されたアプローチは,有意にいくつかの公開利用可能なベンチマークデータベース上で最先端レベル手法よりも性能的に優れており,分子量CNNの優位性を示した。もこの方法RGB-D画像顕著性検出問題に適用した。ピクセルレベル併用に対する深さとRGB情報とそれらの相互作用により誘発された学習顕著性キューを通して,提案モデルは,RGB-D画像における注視点を予測することに優れた性能を達成した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 

前のページに戻る