抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
文書レベル機械翻訳は,小さなマージンによって文章レベルモデルより優れているように管理するが,広く採用できなかった。これまでの研究は大域的文脈の明確な利用をなさず,ソースとターゲット言語の両者における文書の大域的文脈の認識により各文の局所コンテキストを意図的にモデル化する新しい文書レベルNMTフレームワークを提案した。特に,単一文を含む文章の任意の数を含む文書を扱うことができるモデルを設計した。この統一アプローチは,文章と文書レベルデータを別々に訓練する必要のない標準データセット上で,このモデルを精巧に訓練することを可能にする。実験結果は,著者らのモデルが,最先端の基準線上で,2.1BLEUまでの実質的なマージンで,変圧器ベースラインと以前の文書レベルNMTモデルより優れていることを実証した。また,以前の研究が典型的に取り組まれている,隣接2または3つの文章を超えるコンテキストの利点を示す解析も提供した。【JST・京大機械翻訳】