抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,RGB-Dビデオに対する大規模孤立ジェスチャー認識に焦点を当てた。著者らは,残留アーキテクチャ(Res-C3D)を有する三次元畳込みニューラルネットワーク(CNNs)を用いて,深い空間-時間特徴を調査するために新規集合方法を開発して,Long Short Termメモリネットワーク(LSTM)に基づく骨格情報を有する時系列モデルを築き上げた。最初に,異なるキーポイントの相対位置と角度を抽出して,LSTMにおける時系列モデルを構築するために用いた。身体の骨格情報(キーポイント)を得て,他の部分を捨てることによってアーム領域を保存して,マスクされたRe-C3Dを得て,それは,ジェスチャが主に腕または手運動から誘導されるので,バックグラウンドと他の変化の影響を減少させた。さらに,著者らのアンサンブルモデルにおけるあるクラスに対して利点のある各投票サブ分類器の重みを,固定重みの代わりに訓練によって適応的に得た。著者らの実験結果は,提案方法がIsoGDデータセットにおいて精度0.6842で最先端の性能を得たことを示した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【JST・京大機械翻訳】