抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,少数ショットビデオ対ビデオ変換のための適応コンパクト注意モデルを提案した。このドメインにおける既存の研究は,複数の参照画像間の相関を考慮することなく,画素ごとの注意から特徴のみを使用するが,それは重い計算をもたらすが,限られた性能をもたらす。従って,複数の参照画像から文脈的特徴を効率的に抽出するための新しい適応コンパクト注意機構を導入し,その符号化ビュー依存性および動き依存情報が現実的ビデオの合成に有意に利益を与えることができる。著者らのコアアイデアは,高レベル表現としてすべての参照画像からコンパクトな基底関数系を抽出することである。信頼性をさらに改善するために,推論フェーズにおいて,著者らはまた,入力ラベルに従って,資源の多い参照を自動的に選択するために,Delaunay Triangulationアルゴリズムに基づく新しい方法を提案した。大規模会話ヘッドビデオデータセットと人間ダンシングデータセットに関する著者らの方法を広範囲に評価する。実験結果は,光現実的および時間的に一貫したビデオを生成するための著者らの方法の優れた性能,および最先端の方法に関するかなりの改良を示した。【JST・京大機械翻訳】