抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究では,ByT5に基づくG2Pモデルを実行することにより,大規模多言語グラフmem-to-foneme変換に取り組んだ。著者らは,ByT5に基づく100言語と訓練された大規模多言語G2Pモデルをカバーする様々な情報源からG2Pデータセットを縮小した。バイトレベル入力で動作するByT5は,多言語G2Pに関してトークンベースmT5モデルよりも著しく優れていることを見出した。これらの言語におけるモノリンガルモデルとのペアワイズ比較は,多言語ByT5モデルが様々な言語から共同学習することにより,一般的に音誤り率を低くすることを示唆する。事前訓練モデルは,非意味言語に関するゼロショット予測を通して,低資源G2Pをさらに有利にし,微調整のために事前訓練された重みを提供し,それは,モデルがランダムに初期化された重みより低音誤り率に収束するのを助ける。多言語G2Pに関する将来の研究を促進するために,著者らは,著者らのコードと事前訓練された多言語G2Pモデルをhttps://github.com/lingjzhu/CharsiuG2Pで作成する。【JST・京大機械翻訳】