抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
長範囲骨格ベースの人間行動の創出は,1つのフレームの小さい偏差が奇形動作シーケンスを引き起こすことができるので,挑戦的な問題である。ほとんどの既存の方法は,ビデオ生成からアイデアを借り,それは,豊富なフレーム間およびフレーム内構造情報を考慮しない画像の画素として,スケルトンノード/ジョイントをナイーブに処理して,潜在的歪み作用に導いた。グラフ畳込みネットワーク(GCN)は構造表現を学習するための構造情報を利用する有望な方法である。しかし,空間および時間空間の両者におけるそのような連続動作配列に取り組むためにGCNを直接採用することは,行動グラフが巨大な可能性があるので挑戦的である。この問題を克服するために,著者らは,時間的空間で完全な行動グラフを適応的に分類するために,強力な自己注意機構を利用するために,GCNの変種を提案した。提案手法は,重要な過去のフレームに動的に参加し,GCNフレームワークに適用するスパースグラフを構築し,動作シーケンスにおける構造情報を良好に捕捉できる。大規模な実験結果は,既存の方法と比較して,2つの標準人間行動データセットに関する著者らの方法の優位性を実証した。【JST・京大機械翻訳】