抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究では,ビデオ解析のためのプリミティブとして,最近提案された時間-因果関係時空間スケール-空間フレームワークからの時空間受容野を用いた最初の評価を示した。時空間受容野応答の地域統計に基づく新しいビデオ記述子を提案し,動的テクスチャ認識問題に対するこの手法を評価した。提案手法は,空間から時空間領域までの空間から空間時間領域への,および物体認識から動的テクスチャ認識までの,受容的フィールド応答の共同ヒストグラムに基づく,以前に使用された方法を一般化する。時間再帰定式化は,計算的に効率的な時間-因果関係認識を可能にする。実験評価は最先端技術と比較して競合性能を示した。特に,著者らの動的テクスチャ記述子の二値バージョンは,データから手作りまたは学習された異なるプリミティブを用いた,広い範囲の類似方法と比較して,改善された性能を達成することを示した。さらに,パラメータ選択への定性的および定量的調査および受容野の異なるセットの使用は,著者らのアプローチのロバスト性および柔軟性を強調した。まとめると,これらの結果は,時間-因果関係空間-時間受容野のこのファミリーの記述力を支持し,動的テクスチャ認識のための著者らのアプローチを検証し,これらの新しい時間-因果関係空間-時間プリミティブに基づく一連のビデオ解析法を設計する可能性を指摘した。【JST・京大機械翻訳】