文献
J-GLOBAL ID:202002281975541684   整理番号:20A1185013

ビデオからのロバストな頭部姿勢独立眼球運動認識のための深層学習アプローチ【JST・京大機械翻訳】

A deep learning approach for robust head pose independent eye movements recognition from videos
著者 (3件):
資料名:
号: ETRA ’19  ページ: 1-5  発行年: 2019年 
JST資料番号: D0698C  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
眼球運動の認識は,人間のコミュニケーション解析(人間-人間やロボットの相互作用)や診断(医学,読み取り障害)のような注視行動の理解に重要である。本論文では,自然条件における人々の行動を解析するために,遠隔RGB-Dセンサを用いてこのタスクに取り組んだ。これは,このようなセンサが30Hzの正常サンプリング速度を持ち,低分解能の眼画像(典型的に36×60画素)を提供し,自然シナリオが照明,影,頭部姿勢,および動力学において多くの可変性を導入するという非常に挑戦的である。従って,これらの条件で抽出される注視信号は,専用のIRアイトラッカーと比較してより低い精度を有し,タスクに対してより適切でない以前の方法をレンダリングする。これらの課題に取り組むために,眼画像ビデオストリームを直接処理し,それらを固定,サッカード,リンククラスに分類する深い学習法を提案し,真の眼球運動信号から無関係な雑音(照明,低分解能アーチファクト,不正確な眼アラインメント,困難な眼形状)を識別することを可能にした。自然4パーティ相互作用に関する実験は,注視出力に適用された深い学習モデルを含む以前の方法と比較して,著者らのアプローチの利点を実証した。Please refer to this article’s citation page on the publisher website for specific rights information. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 

前のページに戻る