プレプリント
J-GLOBAL ID:202202201108061359   整理番号:22P0323411

混合音素BERT:テキストに対するテキストのための混合音素とサップ音素表現によるBERTの改善【JST・京大機械翻訳】

Mixed-Phoneme BERT: Improving BERT with Mixed Phoneme and Sup-Phoneme Representations for Text to Speech
著者 (11件):
資料名:
発行年: 2022年03月31日  プレプリントサーバーでの情報更新日: 2022年07月19日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近,音声(TTS)へのテキストにおける音素符号器を改善するために,BERT事前訓練を活用することは,ますます注目を集めている。しかし,本研究は,TTS音素符号器を強化するための特性ベースユニットによる予訓練を適用し,それは入力として音素を取り入れるTTS微調整と矛盾する。入力としての音素だけによる予訓練は,入力不整合を軽減することができるが,限られた音素語彙のために,豊富な表現と意味情報をモデル化する能力を欠いている。本論文では,学習能力を高めるために,混合音素とsup-foneme表現を使用するBERTモデルの新しい変種である混合Phoneme BERTを提案した。特に,著者らは隣接音素をsup-fonemesに併合して,モデル入力として音素配列と併合したsup-phonmeシーケンスを結合して,それは豊富な文脈表現を学ぶためにモデル容量を強化することができた。実験結果は,提案した混合Phoneme BERTがFastSpeech 2ベースラインと比較して0.30 CMOS利得でTTS性能を著しく改善することを示した。混合Phoneme BERTは,以前のTTS事前訓練モデルPnG BERTに対して3x推論高速化と類似の音声品質を達成した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
音声処理  ,  パターン認識 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る