抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
与えられた文字の少数のサンプル(8-15)のみに訓練できる生成モデルであるCharacterGANを導入した。著者らのモデルはキーポイント位置に基づく新しい姿勢を生成し,それは対話型フィードバックを提供しながら実時間で修正でき,直感的な再配置とアニメーションを可能にする。非常に限られた訓練サンプルのみを持つので,重要な課題の一つは,例えば,手が身体の前または前に移動する場合,(dis)オクルージョンに対処する方法にある。これに対処するために,入力キーポイントを独立に処理する異なる層へ明示的に分割する新しい層化アプローチを導入した。これらの層は特性の異なる部分を表し,強い(dis)オクルージョンでも現実的な結果を得るのに役立つ強い陰的バイアスを提供する。個々の層の特徴を組み合わせるために,全てのキーポイントに条件付けされた適応スケーリングアプローチを用いた。最後に,テスト時間において極端な分布外姿勢で生じる歪みアーチファクトを低減するためにマスク連結性制約を導入した。提案アプローチは,最近のベースラインよりも優れており,多様な特性に対して現実的なアニメーションを生成することを示した。また,このモデルが離散状態変化を扱うことができ,例えば,異なる層が,それらの層におけるそれぞれのキーポイントに特有な特徴を実際に学習する,そして,より多くのデータが利用できるとき,著者らのモデルスケールがより大きなデータセットに,実際に学習するということを示した。コードはhttps://github.com/tohinz/CharacterGANで利用可能である。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】