文献
J-GLOBAL ID:201702288503474452   整理番号:17A1726213

[POSTER]AirGestAR:費用のかからないARデバイスを用いた複雑な手のジェスチャ相互作用のための深い強化学習【Powered by NICT】

[POSTER] AirGestAR: Leveraging Deep Learning for Complex Hand Gestural Interaction with Frugal AR Devices
著者 (3件):
資料名:
巻: 2017  号: ISMAR-Adjunct  ページ: 235-239  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
手ジェスチャは天然およびAR/VR応用におけるユーザ相互作用の直感的な方法を提供する。しかし,GoogleボールとWearality1のような最も一般的で市販の装置はまだ磁気トリガ,導電性レバーのような相互作用の基本モードのみを採用し,限られたユーザ能力を持っている。真にinstinctualジェスチャは専用のハードウェアを用いたホロレンズ,マジック飛躍,およびメタGlasses2のような異常価格デバイスのみで動作し,市販されていない。本論文では,単一スマートフォンから単眼カメラ入力を用いた実時間における複雑な三次元標識無しジェスチャー(Bloom,クリック,ズームでは,ズームOut)を認識するための深層学習を利用する可能性を調べた。このフレームワークは,リアルタイムで動作する大規模展開のための強力なAR/VRシステムを構築するために節約スマートフォンを用いた専用ハードウェアの必要性を排除することができた。ジェスチャ分類のためのLSTMネットワークを訓練するための手ジェスチャデータセットを作成し,同じオンラインを発表した。も分類精度と計算時間の観点から提案した方法の性能を示した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 

前のページに戻る