抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
テキスト修正は,ソースとターゲットシーケンスが表面形式で中程度の類似性を共有するが,テキスト形式性と単純さのような属性で識別する,自然言語生成タスクのファミリーに言及する。現在の最先端の方法は,大規模並列訓練コーパスに依存するシーケンスツーシーケンス学習問題としてこれらのタスクを定式化する。本論文では,並列データを必要としないテキスト修正のための反復インプレイ編集アプローチを提案した。このアプローチでは,マスクされた言語モデリングと属性分類による事前訓練変換器を単純に微調整する。推論の間,各々の反復における編集は,2段階スパン置換によって実現した。第一段階では,テキストの分散表現は,属性関数に向けてフライ上で最適化する。第2ステップでは,テキストスパンをマスクし,最適化表現で他の新しいものを提案した。2つの典型的および重要なテキスト修正タスク,テキスト形式化およびテキスト単純化に関する経験的実験は,著者らのアプローチの有効性を示した。それは,テキスト簡素化に関して最先端の教師つき方法より競合的でより良い性能を達成して,テキスト形式化足指{Codeとモデルに関する強力な教師なし方法より優れた性能を得る。【JST・京大機械翻訳】