プレプリント
J-GLOBAL ID:202202202204377223   整理番号:22P0305500

事前訓練多言語系列-シーケンスモデル:低リソース言語翻訳のための希望?【JST・京大機械翻訳】

Pre-Trained Multilingual Sequence-to-Sequence Models: A Hope for Low-Resource Language Translation?
著者 (7件):
資料名:
発行年: 2022年03月16日  プレプリントサーバーでの情報更新日: 2022年04月30日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
mBARTのような多言語配列モデルを事前訓練することは,低資源言語の翻訳に寄与する。5つの因子を考慮して,これを確認するために10の言語で徹底的な経験的実験を行った。1)微調整データ量,2)微調整データのノイズ,3)モデルの予訓練データ量,4)ドメイン不整合の影響,5)言語類型。いくつかの発見的方法に加えて,実験は機械翻訳システムのデータ感度を評価するためのフレームワークを形成する。mBARTはドメイン差に対してロバストである一方,非意味的および類型的遠隔言語に対する翻訳は3.0BLEU以下に留まっている。標題の質問に答えると,mBARTは,低資源パナラではない。したがって,新しいモデルから新しいデータへの強調のシフトを奨励する。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 

前のページに戻る