抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究では,AttendAffectNetと呼ばれる映画からの感情予測のための自己注意ベースネットワークの異なる変異体を提案した。オーディオとビデオの両方を考慮し,感情予測のために抽出した特徴に新しい方法で自己注意機構を適用することにより,複数のモダリティ間の関係を取り入れた。感情応答の逐次依存性を考慮しながら,映画の時間表現関係を捉えることを可能にする自己注意ベースモデルの典型的時間積分と比較した。著者らは,拡張COGNIMUSEデータセット[1],[2],および感情アノテーションを有する映画から成るMovies Tasks of Movies Task Emotional Imagemental of Movies Reactive Emotional Impactive of Movies Task of Movies A結果は,時間領域よりも異なるオーディオビジュアル特徴に自己注意機構を適用することが,感情予測に対してより効果的であることを示す。また,著者らのアプローチは,感情予測のための多くの最先端のモデルより優れていることを証明した。モデルの実装による結果を再現するコードは,https://github.com/ivyha010/AttendAffectNetで利用可能である。【JST・京大機械翻訳】