抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
我々は,既存の大量映像コンテンツからの演技特徴データセット生成を目指している。こうした演技特徴は,人の姿勢により表現可能であるため,このデータセット生成のためには,映像からの姿勢推定が基礎技術として必要になる。しかし,現在の姿勢推定手法では,演技特徴を表現するに足るほどの高精度な姿勢推定は実現できていない。本研究では,深層学習による姿勢推定モデルにおいて,そのモデルを特定の動きに特化して最適化することで,姿勢推定の精度にどのような影響が与えられるかを検証する。本稿では,特徴的な動きが色濃く表れる時代劇の殺陣を解析対象とした。時代劇の演者のほとんどは,着物を着ており,その姿勢推定モデル学習のために姿勢アノテーションを与えることが困難である。そこで,姿勢推定対象となる演者と同様の動きを,モーションキャプチャシステムと同期させつつ映像撮影することで,各フレームへの姿勢アノテーションを自動化した。しかし,このアノテーション映像の演者は,モーションキャプチャ計測のために着物を着用していない。このように,姿勢推定モデルが学習している情報のうち「見え方」は大きく異なるが「人体パーツ間の相対的な位置関係」は類似している学習データを利用することで,姿勢推定モデルの最適化がどのように影響を受けるのかを検証するのが,本稿の目標である。実験では,人体パーツによっては最大6%程度の性能向上が得られることを確認した。(著者抄録)