抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,RGBとRGB Dジェスチャ認識のための二大規模ビデオマルチモーダルデータセット:ChaLearn LAP RGB-D単離されたジェスチャデータセット(IsoGD)と連続ジェスチャデータセット(ConGD)を提案した。両データセットは,「ワンショット学習」競争のための50000以上のジェスチャを持つことをChaLearnジェスチャデータセット(CGD)から導出した。古いデータセットの可能性を増加させるために,249ジェスチャラベルから構成され,配列における開始と終了フレームを標識手動47933ジェスチャを含む新しいよく管理されたデータセットを設計した。これらのデータセットを用いた研究者が「利用者独立」ジェスチャ認識のためのそれらの方法を試験し,比較できるように,CodaLabプラットフォーム上の二競合を開くであろう。第一の課題は,ジェスチャの連続配列におけるジェスチャースポッティングおよび認識のために設計されたものであり,第二機構は,セグメント化されたデータからジェスチャ分類のために設計した。ビジュアルワードモデルのバッグに基づくベースライン法も提示した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】