文献
J-GLOBAL ID:201802280682635768   整理番号:18A1621674

人間行動認識におけるキーフレーム抽出のための教師なし特徴学習とクラスタリング法【JST・京大機械翻訳】

An Unsupervised Feature learning and clustering method for key frame extraction on human action recognition
著者 (3件):
資料名:
巻: 2017  号: CYBER  ページ: 759-762  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオにおける人間行動の認識は非常に活発な研究課題である。異なるビデオ長,異なる実行者を持つ人間の行動データセットの成長する多様性がある。人間の行動認識は非常に困難な話題となっている。多くの研究者はビデオからキーフレームを抽出することによって問題を解決する。ほとんどの論文は,ビデオにおけるキーフレームを抽出するために特徴クラスタリング法を使用する。一方では,ビデオにおける大量の視覚コンテンツは,すべてのビデオケースを記述することができないので,ビデオにおける大量の視覚コンテンツは十分に効果的でない。一方,従来のクラスタリングアルゴリズムは,初期クラスタ化中心の選択によって容易に影響される。本論文では,鍵となるフレーム抽出のための教師なし特徴学習とクラスタリング法を提案した。これは人間の行動認識に使用できる。積層オートエンコーダ(SAE)は10の異なる人間動作からビデオを用いて訓練され,SAEは人間の行動を表現する特徴を学習するための特徴抽出器として使用される。親和性伝搬クラスタリングアルゴリズムを用いて,ビデオシーケンスからキーフレームを選択した。種々のビデオを用いて実験を行った。実験は,著者らの方法が異なる人間行動を考慮してビデオショットを効果的に要約することができることを実証した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る