抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオにおける運動依存性をコードするコンパクトことを教師なし表現学習アプローチを提案した。ビデオクリップからの画像の対が与えられた時,提案フレームワークは,長期3D運動を予測するために学習する。学習フレームワークの複雑さを低減するために,RGB-D法を用いて計算した原子の3次元流の配列として運動を記述することを提案した。流のこれらの配列を予測するためのリカレントニューラルネットワークに基づくエンコーダ-デコーダ枠組みを使用した。復号器のためのこれらの配列を再構成するために,符号器は長期運動依存性と空間的-時間的関係を捕捉するロバストなビデオ表現を学習しなければならないことを論じた。NTU RGB+DとMSR日常行動3Dのような複数のモダリティとデータセットを横切る活性分類に関する我々の学習された時間表現の有効性を示した。本フレームワークは任意の入力様式,すなわち,RGB,深さ,とRGB Dビデオに包括的なものである。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】