抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
連続ビデオストリームにおけるジェスチャと手話認識は挑戦的課題であり,特に大語いであった。本研究では,framewise分類問題としてこのに近づいた。残留ネットワーク,バッチ正規化と指数関数的線形単位(ELUs)のような深い学習場の時間畳込みと最近の進歩を用いてそれに取り組んでいる。モデルは,三種類の異なるデータセット:オランダの手話コーパス(コーパスNGT),フランドル手話コーパス(コーパスVGT)とChaLearn LAP RGB-D連続ジェスチャデータセット(ConGD)で評価した。コーパスNGTを100徴候,コーパスVGT付き56.4%と深さマップを使用せずにChaLearn LAP ConGD0.316の平均Jaccard指数73.5%トップ10精度を達成した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】