文献
J-GLOBAL ID:202202261629375367   整理番号:22A1038868

マルチモーダル深層学習を用いた動的人間運動のためのジェスチャ追跡と認識アルゴリズム【JST・京大機械翻訳】

Gesture Tracking and Recognition Algorithm for Dynamic Human Motion Using Multimodal Deep Learning
著者 (4件):
資料名:
巻: 2022  ページ: Null  発行年: 2022年 
JST資料番号: W2740A  ISSN: 1939-0114  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: イギリス (GBR)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
従来の人間運動ジェスチャ追跡と認識方法の問題に対処するために,貧弱な追跡効果,低い認識精度,高いフレーム損失率,および長い時間コストのような,マルチモード深層学習を用いた動的人間運動ジェスチャ追跡と認識アルゴリズムを提案した。最初に,収集したヒト運動画像を三次元(3D)環境において修復し,マルチモーダル3D人間運動モデルを処理画像を用いて再構成した。第二に,モデル再構成の結果に従って,カメラジェスチャーとキーフレームの他のパラメータを用いて,人間運動の正確な追跡の目的を達成するために,目標追跡最適化機能を構築した。最後に,マルチモーダル人間運動ジェスチャ学習のために,畳込みニューラルネットワーク(CNN)を開発した。訓練されたCNNは,畳み込みとプール計算の後,動的人間運動認識を完了するために利用される。結果は,提案したアルゴリズムが人間の運動ジェスチャを追跡するのに有効であることを示した。平均認識精度は96%であり,平均フレーム損失率は8.8%であり,時間コストは低く,提案したアルゴリズムは,他のアルゴリズムより高いF測度とはるかに低い電力消費を持ち,提案アルゴリズムが有効であることを示した。Copyright 2022 Zhonghua Xia et al. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 
引用文献 (21件):
  • J. Meng, P. Pan, Z. Yang, J. Wei, "Degradable and highly sensitive CB-based pressure sensor with applications for speech recognition and human motion monitoring," Journal of Materials Science, vol. 55, no. 7, pp. 10084-10094, 2020.
  • S. Jeba Berlin, M. John, "Spiking neural network based on joint entropy of optical flow features for human action recognition," The Visual Computer, no. 21, pp. 1-15, 2020.
  • X. Zhang, X. Wang, C. Gu, "Online multi-object tracking with pedestrian re-identification and occlusion processing," The Visual Computer, no. 37, pp. 1089-1099, 2021.
  • Y. Wu, L. Wei, Y. Duan, "Deep spatiotemporal LSTM network with temporal pattern feature for 3D human action recognition," Computational Intelligence, vol. 35, no. 3, pp. 535-554, 2019.
  • X. Wen, H. Chen, "3D long-term recurrent convolutional networks for human sub-assembly recognition in human-robot collaboration," Assembly Automation, vol. 40, no. 4, pp. 655-662, 2020.
もっと見る

前のページに戻る