文献
J-GLOBAL ID:201802243707077327   整理番号:18A1908354

姿勢認識のためのスパースオートエンコーダ【JST・京大機械翻訳】

Sparse Autoencoders for Posture Recognition
著者 (2件):
資料名:
巻: 2018  号: IJCNN  ページ: 1-10  発行年: 2018年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
異なるジェスチャータイプの間で,静的ジェスチャまたは姿勢は,コマンドまたはエミュレーションのような広範囲の通信情報を提供する。姿勢認識のための視覚ベース処理は,知的システムにおける最も直感的ではあるが挑戦的なタスクである。深い学習,特に畳込みニューラルネットワーク(CNN)における業績は,最適パラメータ調整のための大規模データ要求と長い訓練セッションを犠牲にして,自動化画像特徴学習のための手モデルまたは工学的特徴を置き換えた。本研究の目的は,姿勢認識のためのスパースオートエンコーダの可能性を調べ,畳込みアプローチを提示する代替法を促進することである。異なる特性を持つ2つの姿勢データセット上で望ましい画像特徴抽出を保持するために,階層的に設計されたオートエンコーダによる実験を行った。異なるデータ特性は,ネットワーク性能に及ぼすパラメータの影響を実証することを可能にした。著者らの評価は,浅いネットワーク設計さえも,多重チャネルCNNと比較して優れた性能を達成し,スパース画像サンプルを持つ小データセット上で同等の結果を得ることを示した。著者らの研究から,「軽量」アプローチは姿勢認識のための実行可能なツールであり,将来のより多くの調査に価値があると結論した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (1件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る