抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
多くの最近の努力は,非自己回帰神経機械翻訳に投資され,最新のGPU上の最先端の自己回帰機械翻訳に対する効率的な代替であるように見える。生成が逐次的である後者とは対照的に,前者はターゲットトークン位置にわたって並列化することを可能にする。最新の非自己回帰モデルのいくつかは,自己回帰ベースラインと比較して,印象的な翻訳品質-速度トレードオフを達成した。本研究では,このトレードオフを再検討し,自己回帰基準線が,精度の損失なしに実質的にスペープできると主張した。特に,様々な深さの符号器と復号器を有する自己回帰モデルを研究した。この広範な実験は,十分に深い符号器を与えられた場合,単層自己回帰復号器が,同等の推論速度を有する強い非自己回帰モデルを実質的に凌駕できることを示した。非自己回帰法に比べて自己回帰ベースラインに対する速度不利は,3つの観点で過大評価された:最適以下の層割当,不十分な速度測定,および知識蒸留の欠如。著者らの結果は,高速,正確な機械翻訳に向けた将来の研究のための新しいプロトコルを確立した。このコードはhttps://github.com/jungokasai/deep shallowで利用可能である。【JST・京大機械翻訳】