抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオの将来フレーム予測は教師なしビデオ表現学習のための有望な手段である。ビデオフレームはビデオの出現と運動動力学に基づく先行フレームから固有ピクセル流によって自然に生成される。しかし,既存の方法は,直接錯角化画素値に焦点を当て,ぼやけた予測をもたらした。本論文では,Generative敵対的ネット(GAN)アーキテクチャ二重運動,明示的に将来フレーム予測をduallearning機構によるビデオにおける画素単位の流れと一致することを学ぶを開発した。主将来フレーム予測と二重将来のフロー予測は閉ループを形成し,より良いビデオ予測のための相互に有益なフィードバック信号を生成した。現実と区別できない合成将来フレームと流れの両方を作るために,futureflow予測は現実的な将来フレームの推論を支援するためにできることを保証するために提案した二重敵対的整枝法が,同様に将来フレーム予測は現実的なオプティカルフローをもたらす。著者等の二重運動GaNも新しい確率論的運動エンコーダと異なるピクセル位置における自然運動不確実性,変分オートエンコーダを扱う。包括的な実験を行い,提案した二重運動GaNは新しいビデオフレームを合成し,将来の流れの予測に及ぼすstateofの技術アプローチの性能を著しく上回ることを実証した。著者らのモデルは,多様な視覚シーン全体にわたたって一般化し,教師なしビデオ表現学習における優位性を示した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】