抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,口唇の動く速度を考慮したフィルタと漸次的視覚素認識による音声駆動発話アニメーション手法を提案する。本手法ではCG制作において広く用いられるブレンドシェープ法(形状の線形和モデル)によるアニメーションを想定して設計された基本口形状(視覚素;Viseme)を有する任意のキャラクタデータに対して適用でき,視覚素認識系とキャラクタ表示系の処理の依存を少なくするように設計した。入力として音声を使用し,言語的な制約を考慮しながら漸次的に視覚素認識を行うことで,低遅延で発話アニメーション出力を実現した。キャラクタごとの視覚素のデザインが異なることによる影響を抑制するため,口唇の動く速度を考慮した視覚素依存フィルタの設計法を提案し,発話アニメーションでの不自然さを生じる急激な口唇の動きの抑制や,キャラクタに合わせた動きのカスタマイズを実現した。以上のアニメーション手法を含むシステムを実装し,利用者の発話に対し約300msの遅延にて発話アニメーションを実現し,同時に入力音声の出力を同程度遅延させることで,出力音声と同期のとれた発話アニメーションを実現できることを確認した。(著者抄録)