抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオにおける視覚信号は,コンテンツと動きに分割できる。オブジェクトがビデオにあるコンテンツを特定する一方で,動きはそれらのダイナミクスを記述する。これに基づいて,ビデオ生成のための運動とコンテンツ分解一般化加算ネットワーク(MoCoGAN)フレームワークを提案した。提案したフレームワークは,一連のビデオフレームにランダムベクトル列をマッピングすることによりビデオを生成する。各ランダムベクトルは,コンテンツ部分と運動部分から成る。コンテンツ部分は固定されているが,運動部分は確率過程として実現される。教師なしの方法で運動とコンテンツの分解を学習するために,画像とビデオ識別子の両方を利用した新しい敵の学習方式を導入した。最先端の手法と定性的および定量的な比較によるいくつかの挑戦的データセットに関する広範な実験結果により,提案フレームワークの有効性を検証した。さらに,MoCoGANは,異なるコンテンツと同じ動きを持つビデオと同様に,同じコンテンツを持つビデオを生成することを可能にすることを示した。このコードはhttps://github.com/sergeytulyakov/mocoganで利用可能である。Copyright 2019 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】