抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究は,単一RGB画像を与える手持ち物体を再構成することを目的とする。既知の3Dテンプレートを典型的に仮定し,3D姿勢推定に問題を低減する前の研究とは対照的に,本研究では,それらの3Dテンプレートを知らず,一般的な手持ち物体を再構成する。重要な洞察は,手関節が物体形状を高度に予測することであり,著者らは,関節と視覚入力に基づいて物体を条件付きに再構成する手法を提案した。手持ち物体を描写する画像を与えて,まず,基礎手姿勢を推定し,次に,正規化手中心座標フレームにおける物体形状を推論するために,オフラインシステムを使用した。質問点を処理するために,視覚特徴および関節認識座標の両方から情報を利用する陰的ネットワークによって推論される符号付き距離によってオブジェクトをパラメータ化した。3つのデータセットを横断して実験を行い,この方法が一貫してベースラインを凌駕し,多様なオブジェクト集合を再構成できることを示した。明示的な関節調整の利益とロバスト性を分析し,また,これが,手姿勢推定を試験時間最適化でさらに改善することを示した。【JST・京大機械翻訳】