文献
J-GLOBAL ID:201902253308175026   整理番号:19A1931632

画像の視覚的および空間的特徴に基づくユーザに特化した注視領域推定の高精度化に関する検討~視覚的特徴の類似度と推定精度の関係性に関する一考察

A Note on User-specific Visual Attention Estimation Based on Visual and Spatial Information in Images-A Study on Relationship between Estimation Performance and Similarity of Visual Features-
著者 (4件):
資料名:
巻: 119  号: 132(HIP2019 29-33)  ページ: 13-16  発行年: 2019年07月12日 
JST資料番号: S0532B  ISSN: 0913-5685  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: 日本 (JPN)  言語: 日本語 (JA)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本文では,我々が以前提案した,画像の視覚的および空間的特徴に基づくユーザに特化した注視領域の推定手法の高精度化に関する検討を行う.提案手法では,画像の視覚的および空間的特徴に基づく2種類のフィクセーションマップを算出する.さらに,これらのフィクセーションマップを簡便な手法により統合を行うことで,ユーザに特化した注視領域の推定を実現する.ここで,視覚的特徴を考慮する際,テスト画像から算出される各パッチの画像特徴量の近傍に存在する画像特徴量を有する学習パッチを探索する.探索された学習パッチに対応するフィクセーションパッチの平均を取ることで,テストパッチのフィクセーションパッチを推定する.ただし,学習パッチおよびフィクセーションパッチは学習画像およびフィクセーションマップを分割したものである.学習パッチを探索するための近傍数は,提案手法においてフィクセーションパッチを推定する際の重要なパラメータであり,推定精度に大きな影響を及ぼすと考えられる.しかしながら,以前我々が報告した文献では,この近傍数が与える推定精度への影響に関する考察が十分に行われていなかった.そこで,本文では,この近傍数を変化させた実験を行うことで,推定精度へ与える影響について考察を行う.(著者抄録)
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
引用文献 (14件):
  • Shabab Bazrafkan, Anuradha Kar, and Claudia Costache, ′′Eye gaze for consumer electronics: Controlling and commanding intelligent systems,′′ IEEE Consumer Electronics Magazine, vol. 4, no. 4, pp. 65-71,2015.
  • Qian Zhao, Shuo Chang, Maxwell Harper, and Joseph Konstan, ′′Gaze prediction for recommender systems,′′ in Proc. ACM Conference on Recommender Systems (RecSys), 2016, pp. 131-138.
  • Yuya Moroto, Keisuke Maeda, Takahiro Ogawa, and Miki Haseyama, ′′User-centric visual attention estimation based on relationship between image and eye gaze data,′′ in Proc. IEEE Global Conference on Consumer Electronics (GCCE), 2018, pp. 44-45.
  • Junting Pan, Cristian Ferrer, Kevin McGuinness, Noel O'Connor, Jordi Torres, Elisa Sayrol, and Xavier Giro, ′′Salgan: Visual saliency prediction with generative adversarial networks,′′ arXiv preprint arXiv:1701.01081, 2017.
  • Xun Huang, Chengyao Shen, Xavier Boix, and Qi Zhao, ′′Salicon: Reducing the semantic gap in saliency prediction by adapting deep neural networks,′′ in Proc. IEEE International Conference on Computer Vision (ICCV), 2015, pp. 262-270.
もっと見る

前のページに戻る