抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
行動認識に関する公表された研究の多くは,通常,行動系列が以前に時間的に分割されていると仮定している。すなわち,認識される動作は最初のシーケンスフレームで始まり,最後のもので終わる。しかしながら,シーケンスにおける行動の時間的セグメンテーションは容易なタスクではなく,常にエラーを起こしやすい。本論文では,ビデオシーケンスから人間の行動を自動的に抽出する新しい手法を提案した。著者らのアプローチは,いくつかの貢献を提示まず第一に,射影テンプレート方式を使用して,全体の配列においてそれらを抽出するよりはむしろ,投影表面の中で時空特徴と記述子を見つける。シーケンスを投影するために,著者らはR変換の変種を使用する。それは,時間的作用セグメンテーションのために以前に使用されていなかった。オリジナルのビデオシーケンスを投影する代わりに,著者らはそのオプティカルフロー成分をプロジェクトして,動作運動に関する重要な情報を保存した。公開可能な行動データセットに関する著者らの方法をテストして,結果はそれが最先端の方法と比較して非常によくセグメント化している人間の行動を実行することを示した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【JST・京大機械翻訳】