抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
訓練変換機ベースのモデルは大量のデータを必要とするが,一方,マルチモーダルにおける整列およびラベル付きデータを得ることは,特にオーディオビジュアル音声認識(AVSR)に対して,むしろコスト要求である。したがって,それはラベルなし単峰性データの利用を多くの意味にする。一方,大規模自己監督学習の有効性は,オーディオと視覚の両モダリティで十分に確立されているが,これらの事前訓練モデルをマルチモーダルシナリオに統合する方法は未開発のままである。本研究では,マルチモーダルAVSRを促進するために,単峰性自己監督学習をうまく活用した。特に,オーディオと視覚フロントエンドを大規模単峰データセット上で訓練し,次に,両フロントエンドの成分を,CTCとseq2seq復号化の組合せを通して,並列オーディオビジュアルデータを認識するために学習するより大きなマルチモーダルフレームワークに統合した。単峰性自己監督学習から継承された両成分はよく協調し,マルチモーダルフレームワークが微調整を通して競合結果をもたらすことを示す。このモデルを単語レベルと文章レベルタスクの両方で実験的に検証した。特に,外部言語モデルなしでも,提案モデルは,30%の相対的改善で,大きなマージンによって広く受け入れられるLip Reading Sentences 2(LRS2)データセットに関する最先端の性能を上げる。【JST・京大機械翻訳】