文献
J-GLOBAL ID:201902287181985704   整理番号:19A0512413

結合ビデオ辞書学習による動的テクスチャモデリング【JST・京大機械翻訳】

Dynamical Textures Modeling via Joint Video Dictionary Learning
著者 (6件):
資料名:
巻: 26  号:ページ: 2929-2943  発行年: 2017年 
JST資料番号: W0364A  ISSN: 1057-7149  CODEN: IIPRE4  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオ表現はコンピュータビジョンコミュニティにおける重要で挑戦的なタスクである。本論文では,動的テクスチャ(DT)フレームワークでモデル化できる動的シーンのビデオシーケンスのモデリングと分類の問題を考察した。最初に,移動シーンの画像フレームをMarkov確率過程としてモデル化できると仮定した。著者らは,共同ビデオ辞書学習(JVDL)と呼ばれるスパース符号化フレームワークを提案し,ビデオを適応的にモデル化した。基礎となる「状態」として学習辞書上の画像フレームのスパース係数を処理することにより,時系列におけるスパース事象の二つの隣接フレーム間の効率的でロバストな線形遷移行列を学習した。したがって,動的シーンシーケンスは辞書に関連する適切な遷移行列によって表現される。JVDLの安定性を保証するために,そのような遷移行列と辞書にいくつかの制約を課した。開発したフレームワークは,連続ビデオフレームのスパース性と時間的相関の両方を探索することにより,移動シーンのダイナミクスを捉えることができる。さらに,そのような学習されたJVDLパラメータはDT合成や認識のような様々なDT応用に使用できる。実験結果は,最先端のビデオ表現法と比較して,提案したJVDLアプローチの強い競争力を実証した。特に,それはDT合成を扱うことにおいて著しくより良く機能し,激しく破損したデータについて認識する。Copyright 2019 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る