抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
逆翻訳(BT)は,ニューラル機械翻訳(NMT)における効果的な半教師つき学習フレームワークである。事前訓練されたNMTモデルは,単言語文を翻訳し,他のNMTモデルの訓練のための合成バイリンガル文ペアを作成し,その逆も真である。2つのNMTモデルを推論および生成モデルとしてそれぞれ理解し,変分自動符号器(VAE)の訓練法を,生成モデルの主流フレームワークである以前の研究に適用した。しかしながら,翻訳文章の離散特性は,2つのNMTモデル間の流れからの勾配情報を防止する。本論文では,VAEの訓練フレームワークがエンドツーエンドのやり方で機能できるように,NMTモデルを微分可能文を生成するカテゴリー再パラメタリゼーショントリック(CRT)を提案した。WMTベンチマークデータセット上で実施されたBT実験により,カテゴリー変数に対するポピュラーな再パラメタリゼーション手法であるGumbel-softmaxトリックと比較して提案CRTの優越性を示した。さらに,複数のWMTベンチマークデータセット上で実施された実験により,ここで提案したエンドツーエンド訓練フレームワークは,エンドツーエンド方式で訓練されていないその対応物ベースラインと比較してだけでなく,その他の以前のBT研究との比較においてもBLEUスコアの意味で有効であることを示した。このコードはWebで利用可能である。【JST機械翻訳】