抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
自然および情報テキストの創出はNLPにおける長年の問題である。知識グラフやWikiページのような様々なオープンワールド知識を持つ事前訓練言語モデル(PLM)の組み込みに多くの努力が払われてきた。しかし,タスク固有の知識をアクセスし,操作する能力は,通常,PLMでよくカバーされないので,下流タスクに限られており,取得が困難である。この問題に取り組むために,著者らは,統一フレームワークにおけるタスク特異的およびオープンワールド知識(TegTok)によるTExt生成の強化を提案した。本モデルは,高密度検索を通して2種類の知識源から知識エントリを選定し,次にそれらを入力符号化と出力復号化段階にそれぞれPLMに基づいて注入する。これら2種類の知識の助けにより,著者らのモデルは,何を学習するかを学習できる。対話生成と質問生成の2つのテキスト生成タスクに関する実験と2つのデータセットは,著者らの方法が種々のベースラインモデルより良い性能を達成することを示した。【JST・京大機械翻訳】