文献
J-GLOBAL ID:201502264282262939   整理番号:15A0648874

ビデオシークエンスから人間の姿勢を推定し,カテゴリ化するための行動データベース

Action database for categorizing and inferring human poses from video sequences
著者 (2件):
資料名:
巻: 70  ページ: 116-125  発行年: 2015年08月 
JST資料番号: C0133C  ISSN: 0921-8890  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
人間の活動を自動的に認識する難しさの1つは数多くの人間の動作の中から選択して特定の動作にビデオを分類することである。複雑で変化に富んだ人間の動作を理解するための技術が自動的な監視,スポーツトレーニング,コンピュータゲーム,そして人間ロボットインタラクションには必要である。分類の難しさは,手動で分類され,動作の分類器の設計の訓練データとして使いやすい人間の活動のデータセットの不足が原因である。マーカをベースとしたモーションキャプチャシステムは,解析のために人間の動作を正確に計測できる。しかしながら,この種のキャプチャシステムにはいくつかの欠点があり,特にマーカをベースとしたシステムは,人間の動作の大きなデータセットを提供し,そのデータセットは分類されるべき種々の動作のハンドリングを促進するのに利用できる。モーションキャプチャシステムにより形式化された人間の動作の大きなデータセットは,数多くの動作カテゴリから選択し,ビデオから人間の姿勢を推論するために,ビデオセグメントを正しい人間の動作のカテゴリに分類するのにふさわしいことが期待される。本稿は,人間の体全体の動作のデータセットの新しい概念,およびビデオから人間の動作の理解への応用を提案した。データセットは身体の部分の位置,シルエット画像からの姿勢ディスクイプタ,姿勢ディスクリプタの各シークエンスをエンコードする確率的モデル,姿勢ディスクリプタから配置を予測するための回帰モデルのようなアクション設定を含む。アクション設定はマーカのモーションキャプチャシステムで人間の動作を測定することにより使用の前に記録された。我々はモーションキャプチャシステムをテストし,シルエット画像はこれらから創成された。実験結果は動作データセットが動作の分類と姿勢の推定の両方の仕様に適していたことを示した。Copyright 2015 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人間機械系  ,  ロボットの運動・制御 

前のページに戻る