抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
文法誤り訂正(GEC)は,非文法的な文を文法的に正しい文に変換する機械翻訳タスクと一般的に呼ばれている。本タスクでは非文法的な文と文法的な文のペアからなる,大量の並列データを必要とする。しかし,日本語のGECタスクでは,限られた数の大規模並列データしか利用できない。したがって,擬似並列データを生成するデータ増強(DA)が活発に研究されている。多くの以前の研究では,文法的な文よりもむしろ非文法的な文を生成することに焦点を当ててきた。この問題に対処するために,本研究では事前訓練済みBERTモデルを用いて正しい文を生成するDAアルゴリズムである,BERT-DAアルゴリズムを提案した。本実験では,2つの要素であるソースデータとデータ生成量に焦点を当てた。それらの要素を考慮することは,BERT-DAにとってより有効であることが証明された。複数ドメインの評価結果に基づき,BERT-DAモデルはMax MatchとGLEU
+に関して既存のシステムを上回った。(翻訳著者抄録)