抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
既存の対話システムモデルは大規模な人間アノテーションを必要とし,異なるタスクに一般化するのが難しい。BERTおよびGPT-2(Devlin等,2019;Radford et al., 2019)のような大きな事前訓練言語モデルの最近の成功は,ダウンストリームNLPタスクにおける言語事前の組み込みの有効性を示唆している。しかし,多くの事前訓練言語モデルが対話応答生成をいかに助けることができるかは,まだ探査中である。本論文では,単純,一般的,および効果的なフレームワークを提案した:代替Roles Dialogモデル(ARDM)。ARDMは各話者を別々にモデル化し,大きな事前訓練言語モデルを利用する。それは,信念状態や対話のような人間アノテーションからの監視を必要とせず,効果的な会話を達成する。ARDMは,2つの一般的なタスク指向対話データセット:CamRest676とMultiWOZに関して最先端の手法とは性能が優れていた。さらに,ARDMを,説得のようなより挑戦的な非協調タスクに一般化できる。説得作業において,ARDMは,人物に対する人間のような応答を生成することができる。【JST・京大機械翻訳】