抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
人が話すとき,表情は話者の印象を大きく左右する.また,動画投稿サイトやオンデマンド講義など画像が人のコミュニケーションに関与する割合はより多くなっているため,表情を変換することには応用的な価値がある.顔動作の感情変換に当たっては,発話内容は変換の前後で変わらないことが望まれる.このような,意味的な内容を保存しつつスタイルを変換する技術は「スタイル変換」と呼ばれ,画像分野において特に研究が進んでいる.スタイル変換技術は近年の深層学習の発展に伴って進歩を遂げているが,表情の感情変換については静止画を対象とする研究がほとんどである.しかし,人の表情は顔動作の中に強く現れるため,時系列データを扱うことの実用的価値は大きい.そこで,本研究では顔動作の感情変換を目的とする.スタイルを扱う技術のうち,StyleGANと呼ばれる手法では,スタイルを連続パラメータ空間上の点として埋め込み,そのパラメータを元にスタイルの制御を実現した.本研究ではこの枠組みを利用し,顔動作の感情変換手法を提案する.入出力データとしては顔特徴点群を用い,データの低ランク性を考慮して次元圧縮を取り入れる.(著者抄録)