抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究は,モーションキャプチャから得られた手の動作データと,音声,発話内容の言語データを入力として,手の動作データに含まれるハンドジェスチャパターンと発話区間の間の時間的対応関係を自動的に抽出し,ジェスチャの特徴量から発話単語を認識するモデルを構築するフレームワークCommunicative Gesture Grounding Framework(CGGF)を提案する。CGGFでは多様な手の動作から,発話単語に対応付けるために,3つの異なる性質を持つ特徴量:(1)手の動作軌跡の特徴量,(2)ジェスチャフェイズ特徴量,(3)移動不変疎符号化(Sift Invariant Sparse Coding)に基づき抽出した,短い時系列信号パターンが抽出される。(1)を訓練するために隠れマルコフモデル(Hidden Markov Model:HMM)を,(2),(3)を学習するためにサポートベクターマシン(Support Vector Machine:SVM)を用いる。共通する説明課題に取り組んだ実験協力者16名の説明中にモーションキャプチャより観測された手の動作データ,発話内容データ,音声区間データに提案するCGGFを適用した結果,80単語に関して60%以上の正解率を得た。また最大の正解率は71%であった。(著者抄録)