文献
J-GLOBAL ID:202002223151192674   整理番号:20A0874758

事前訓練された変圧器言語モデルによる超低資源テキストの単純化【JST・京大機械翻訳】

Extremely Low Resource Text simplification with Pre-trained Transformer Language Model
著者 (2件):
資料名:
巻: 2019  号: IALP  ページ: 53-58  発行年: 2019年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近のテキスト単純化アプローチは,機械翻訳により触発された単一言語テキスト生成としてのタスクに関するものである。特に,変換ベースの翻訳モデルは以前の方法より優れている。機械翻訳アプローチは大規模並列コーパスを必要とするが,テキスト簡素化のための並列コーパスは機械翻訳タスクと比較して非常に小さい。そこで,著者らは,小さな並列コーパスによるテキスト簡素化のために事前訓練言語モデルを細かく調整する簡単なアプローチを試みた。具体的には,以下の2つのモデルを用いて実験を行った。すなわち,変換ベースの符号器-復号器モデルと,TransformerLMと呼ばれるオリジナルと単純化された文章の結合入力を受ける言語モデルである。したがって,簡単なテキスト生成モデルであるTransformerLMは,本質的に強いベースラインよりも優れていることを示した。さらに,わずか3,000の教師つき例を持つ微調整TransformerLMが,すべての教師つきデータにより訓練された強いベースラインに匹敵する性能を達成できることを示した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る