抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ラベル平滑化は,ニューラルマシン翻訳(NMT)訓練に普遍的に適用される。ラベル平滑化はモデル訓練中に望ましい正則化効果を提供するが,本論文では,ビーム探索復号化手順における長さバイアスを導入することを示した。本解析は,ラベル平滑化が,出力シーケンスに長さペナルティ項を暗黙的に適用し,より短い翻訳に向けてバイアスを引き起こすことを示した。また,ラベル平滑化により完全に最適化されたモデルに対して,翻訳長は入力に依存しない固定定数によって陰的に上限されることも示した。ラベル平滑化モデル予測から不偏分布を回復するための推論時間で簡単な整流関数を適用することにより理論を検証した。この修正法は,ビームサイズ4で+0.3BLEU,ビームサイズ200で+2.8BLEUまで,WMT英語-German,英語-French,英語-Czechおよび英語-中国語タスクの一貫した品質改善をもたらした。【JST・京大機械翻訳】