文献
J-GLOBAL ID:201702236456766676   整理番号:17A1725318

モダリティ畳込み:畳込みニューラルネットワークに基づくマルチモーダルジェスチャー認識【Powered by NICT】

Modality-convolutions: Multi-modal gesture recognition based on convolutional neural network
著者 (4件):
資料名:
巻: 2017  号: ICCSE  ページ: 349-353  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
モダリティコンボリューションと呼ばれるマルチモーダル画像のための特徴抽出の新しい方法を提案した。内およびモダリティ間情報の両方を抽出した。何がより,マルチモーダルデータに含まれる情報の相補性は完全に利用されるため,ピクセルレベルでのデータ融合を完成させた。モダリティ畳込みに基づいて,マルチモーダルジェスチャー認識のためのモダリティCNNについて述べた。RGB-D画像の特徴を抽出するために,CNNは,ジェスチャ認識フレームワークを採用した。フレームワークは骨格データを提示することDBNを用いた。二ネットワークによって得られた確率が融合し,HMM(隠れMarkovモデル)への動的ジェスチャ分類を行った。ジェスチャ認識の精度を計算するためにJaccar指数用いた。ChaLearn LAP2014ジェスチャデータセットに関する比較実験はモダリティコンボリューションである間intramodality型情報を効果的に抽出できることを示し,これは精度を改善するのに有用である。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  数値計算 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る