文献
J-GLOBAL ID:202002212875621048   整理番号:20A0852773

単一画像ビデオ合成のための非干渉運動と外観の景観自己教師付き学習のアニメーション【JST・京大機械翻訳】

Animating landscape self-supervised learning of decoupled motion and appearance for single-image video synthesis
著者 (3件):
資料名:
巻: 38  号:ページ: 1-19  発行年: 2019年 
JST資料番号: W0137A  ISSN: 0730-0301  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
単一画像からの高品質ビデオの自動生成は,深い生成モデルにおける最近の進歩にもかかわらず,挑戦的な課題である。本論文では,主にスキーと水に焦点を合わせた単一景観画像から畳込みニューラルネットワーク(CNNs)を用いて高分解能で長期間のアニメーションを生成できる方法を提案した。著者らの重要な観測は,自然シーンにおける運動(例えば,移動雲)と外見(例えば天空における時変色)が異なる時間スケールを持つことである。したがって,潜在的符号を導入することにより,両予測における将来の不確実性を扱いながら,それらを別々に学習し,分離制御によりそれらを予測する。出力フレームを直接推論する以前の方法とは異なり,著者らのCNNは,空間的に滑らかな中間データ,すなわち,運動,ワーピングの流れ場,および外観,色移動マップを,自己教師つき学習,すなわち,明確に提供されないグランドトルースを介して予測する。これらの中間データは各出力フレームに適用されないが,各出力フレームに対してのみ入力画像に適用される。この設計は長期予測における誤差蓄積を軽減するために重要であり,これは以前の再帰手法における本質的問題である。出力フレームはcinグラフのようにループ化することができて,また,潜在的符号を特定することによって,または視覚的アノテーションを通して間接的に制御することもできた。この方法の有効性を,ビデオ予測と外観操作に関するstate of the ートとの比較を通して実証した。得られたビデオ,符号,およびデータセットはhttp://www.cgg.cs.tsukuba.ac.jp/endo/projects/AnimatingLandscapeで利用可能である。Please refer to this article’s citation page on the publisher website for specific rights information. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 

前のページに戻る