文献
J-GLOBAL ID:202002210319837155   整理番号:20A1124139

ビデオにおける運動動力学の教師なし学習のための敵対的フレームワーク【JST・京大機械翻訳】

Adversarial Framework for Unsupervised Learning of Motion Dynamics in Videos
著者 (6件):
資料名:
巻: 128  号:ページ: 1378-1397  発行年: 2020年 
JST資料番号: T0423A  ISSN: 0920-5691  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: ドイツ (DEU)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオにおける人間の行動理解は複雑で,まだ解決されていない問題であり,局所的(画素ごとの高密度予測)と大域的(運動キューの集約)レベルの両方で運動を正確にモデル化する必要がある。教師つき学習に基づく現在のアプローチは大量の注釈データを必要とし,その不十分なアベイラビリティは一般解の開発に対する主要な制限因子の一つである。教師なし学習はWeb上で利用可能な大量のビデオを利用でき,既存の制約を克服するための有望な解決策である。本論文では,ビデオ表現と動特性を自己監視機構により学習し,ビデオにおける高密度で大域的な予測を行うための,敵的なGaNベースのフレームワークを提案した。このアプローチは,(1)静的視覚コンテンツと運動の生成へのプロセスの因数分解,(2)物体軌跡の空間時間コヒーレンスを強制するための運動潜在空間の適切な表現の学習,(3)訓練手順への運動推定と画素ごとの高密度予測を統合する。自己監視は,発電機により生成される運動マスクを用いて,その生成過程の副産物として,高密度予測を実行する際に識別器ネットワークを重畳させることにより強化される。標準ベンチマークで行った性能評価は,本手法が教師なしの方法で,局所的および大域的ビデオダイナミクスの両方を学習できることを示した。次に,学習された表現は,感度の低い(約50%)アノテーションによるビデオオブジェクトセグメンテーション法の訓練をサポートし,芸術の状態に匹敵する性能を与える。さらに,提案した方法は現実的なビデオの生成において有望な性能を達成し,特に運動関連計量に関する最先端の手法を凌駕する。Copyright Springer Science+Business Media, LLC, part of Springer Nature 2020 Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般 

前のページに戻る