抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究では,野生のRGB画像から3Dハンド形状と姿勢の両方を予測する最初のエンドツーエンド深学習ベースの方法を提案した。著者らのネットワークは,深い畳込み符号器の連結と固定したモデルベースの復号器から構成されている。入力画像と独立CNNから得られた任意の2Dジョイント検出を与えて,符号器は手と視点パラメータの集合を予測する。この復号器は,ハンドパラメータから3Dメッシュを生成する事前計算関節メッシュ変形ハンドモデルと,生成されたハンドを画像ドメインに投影する視点パラメータにより制御される再投影モジュールを持つ。著者らは,形状を用いて,深い学習フレームワークの中の手モデルにコード化された事前知識が,標準ベンチマーク上の画像からの3D姿勢予測における最先端性能をもたらし,幾何学的に妥当で妥当な3D再構成を生成することを示した。さらに,限られた利用可能なデータセット上の3Dジョイントアノテーションの形式における完全な監視と併せて,野生における画像のデータセット上での2Dジョイントアノテーションの形式における弱い監視による訓練は,3D形状への良好な一般化を可能にし,野生の画像に対する予測を可能にすることを示した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】