文献
J-GLOBAL ID:202202254779025568   整理番号:22A0789198

PoP-Net:深さ画像からのマルチパーソン3D姿勢推定のための部品ネットワーク上の姿勢【JST・京大機械翻訳】

PoP-Net: Pose over Parts Network for Multi-Person 3D Pose Estimation from a Depth Image
著者 (6件):
資料名:
巻: 2022  号: WACV  ページ: 3917-3926  発行年: 2022年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,PoP-Netと呼ばれる実時間法を提案して,深さ画像から多人3D姿勢を予測した。PoP-Netは,単一ショットにおけるボトムアップ部分表現とトップダウングローバル姿勢を予測するために学習する。特に,ボトムアップ部分変位場(TPDF)と呼ばれる新しい部分レベル表現を導入し,ボトムアップ部分検出と大域的姿勢検出の利点を統一する明示的融合プロセスを可能にした。一方,グローバル姿勢と部分検出の間の矛盾するケースを自動的に解決するために,効果的モード選択方式を導入した。最後に,多人3D姿勢推定を開発するための高品質深さデータセットの欠如により,新しいベンチマークとしてMulti-Person3D人間Poseデータセット(MP-3DHP)を導入した。MP-3DHPは,モデル訓練における効果的な多人と背景データ増強を可能にするように設計され,非制御多人シナリオの下で3D人間姿勢推定器を評価する。著者らは,PoP-NetがMP-3DHPと広く使われているITOPデータセットの両方に関して最先端の結果を達成し,多人処理の効率において顕著な利点を有することを示した。MP-3DHPデータセットと評価コードは,https://github.com/oppo-us-research/PoP-Netで利用可能になった。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 

前のページに戻る