プレプリント
J-GLOBAL ID:202202212615418015   整理番号:22P0025347

多言語機械翻訳における次の1000言語に向けて:教師付き学習と自己教師付き学習の間の相乗作用の調査【JST・京大機械翻訳】

Towards the Next 1000 Languages in Multilingual Machine Translation: Exploring the Synergy Between Supervised and Self-Supervised Learning
著者 (7件):
資料名:
発行年: 2022年01月09日  プレプリントサーバーでの情報更新日: 2022年01月13日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
すべての人間の言語対の間の普遍的な翻訳を達成することは,機械翻訳(MT)研究のhoレールである。大規模多言語MTの最近の進歩は,この目標に到達するのに1段階であるが,低資源と非英語中心言語対に対するラベル付きデータのアベイラビリティが禁制的に制限されるので,より並列のデータの訓練により,多言語MTシステムを拡張することは,不可解である。この目的のために,異なる言語対に対するデータアベイラビリティに依存して,教師つきと自己監督された目的の混合物を用いて,数百の言語をカバーする多言語MTモデルを構築するための実用的アプローチを示した。これら2つの訓練パラダイム間の相乗作用は,低および中資源言語に対する教師つき翻訳品質を凌駕する,ゼロ資源設定における高品質翻訳を生成するモデルを可能にすることを示した。著者らは,著者らの自己監督多言語モデルの品質に及ぼす多言語監視,ドメイン不整合および並列およびモノリンガルデータの量の影響を理解するために,広範囲の実験を行った。このアプローチのスケーラビリティを実証するために,200以上の言語でモデルを訓練し,いくつかの以前に研究された言語でのゼロ資源翻訳に関する高性能を実証した。この知見が次の1000言語の翻訳を可能にするためのステッピング石として役立つことを期待する。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
自然語処理 

前のページに戻る