抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
今日では,音声言語翻訳(SLT)のための訓練エンドツーエンド神経モデルは,まだ極端なデータ不足条件と一致しなければならない。既存のSLT並列コーパスは,自動音声認識(ASR)と機械翻訳(MT)の密接に関連するタスクに対して利用可能なものよりも実際に小さく,通常数百万のインスタンスを構成する。データ不足に対処するために,本論文では,タスクへの多言語アプローチを提示することにより,エンドツーエンドSLTにおける転送学習の有効性を調べた。多言語の解はMTにおいて広く研究されており,通常「ターゲットの強制」に依存しており,その中で多言語の並列データを結合して,入力シーケンスに先行することにより単一モデルを訓練する。しかし,音声翻訳においてテストした場合,実験により,ターゲット言語間の識別において,MT様ターゲット強制が有効でないことを示した。そこで,本論文では,言語に従って空間の異なる部分における入力表現をシフトさせるために,ターゲット言語埋め込みを用いる変種を提案し,望ましい目標言語における出力の生成をより良く支援する。英語から6言語へのエンドツーエンドSLTに関する著者らの実験は,類似言語に翻訳するとき,特にこれらが不十分なデータによってサポートされるとき,重要な改善を示す。追加言語(+2.5BLEUポイントまで)として英語ASRデータを用いると,更なる改善が得られる。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】