文献
J-GLOBAL ID:202302277993569157   整理番号:23A2118158

日本語文法誤り訂正における事前学習済みモデルを用いたデータ増強

Data Augmentation Using Pretrained Models in Japanese Grammatical Error Correction
著者 (4件):
資料名:
巻: 38  号:ページ: A-L41_1-10(J-STAGE)  発行年: 2023年 
JST資料番号: U0128A  ISSN: 1346-8030  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 日本 (JPN)  言語: 日本語 (JA)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
文法誤り訂正(GEC)は,非文法的な文を文法的に正しい文に変換する機械翻訳タスクと一般的に呼ばれている。本タスクでは非文法的な文と文法的な文のペアからなる,大量の並列データを必要とする。しかし,日本語のGECタスクでは,限られた数の大規模並列データしか利用できない。したがって,擬似並列データを生成するデータ増強(DA)が活発に研究されている。多くの以前の研究では,文法的な文よりもむしろ非文法的な文を生成することに焦点を当ててきた。この問題に対処するために,本研究では事前訓練済みBERTモデルを用いて正しい文を生成するDAアルゴリズムである,BERT-DAアルゴリズムを提案した。本実験では,2つの要素であるソースデータとデータ生成量に焦点を当てた。それらの要素を考慮することは,BERT-DAにとってより有効であることが証明された。複数ドメインの評価結果に基づき,BERT-DAモデルはMax MatchとGLEU+に関して既存のシステムを上回った。(翻訳著者抄録)
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (4件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  情報加工一般  ,  数理言語学  ,  システム・制御理論一般 
引用文献 (33件):
もっと見る

前のページに戻る