文献
J-GLOBAL ID:202202216226176438   整理番号:22A0398627

社会ロボットに適用した視覚ベースジェスチャ予測フレームワーク【JST・京大機械翻訳】

A Visual-Based Gesture Prediction Framework Applied in Social Robots
著者 (3件):
資料名:
巻:号:ページ: 510-519  発行年: 2022年 
JST資料番号: W2424A  ISSN: 2329-9266  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
日常生活において,人々は,ほとんどの日常活動のために様々な方法で彼らの手を使用する。ジェスチャ認識,ジェスチャ予測,ロボットなどを含む手の位置,方向,および関節に基づく多くのアプリケーションがある。本論文では,動的ハンドジェスチャを予測するために,Leap運動によって収集された手関節座標特徴を用いるジェスチャ予測システムを提案した。モデルをNAOロボットに適用し,提案した方法の有効性を検証した。最初に,Leap運動によるデータ収集のプロセスで発生するジッタまたはジャンプを減らすために,Kalmanフィルタを元のデータに適用した。次に,いくつかの新しい特徴記述子を紹介した。長さ特性,角度特性,および角速度特徴をフィルタデータから抽出した。これらの特徴を,異なる組合せで,長短時間メモリリカレントニューラルネットワーク(LSTM-RNN)に供給した。実験結果は,座標,長さと角度特性の組合せが99.31%の最高精度を達成して,それはリアルタイムで実行することができることを示した。最後に,訓練されたモデルをNAOロボットに適用して,指-ゲッシングゲームを演ずる。予測ジェスチャに基づいて,NAOロボットは前もって応答できる。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 

前のページに戻る