抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
近年,深層学習を用いて対話システムを構築する多くの研究があり,それはユーザ発話に対して比較的流暢な応答文を生成できる。それにもかかわらず,それらは多様ではなく,文脈依存性が少ない応答を生成する傾向がある。その問題は訓練データにおける不均衡を考慮せず,すべての単語を等しく処理するSoftmax Cross-Entropy(SCE)損失によって引き起こされると仮定して,トークンの頻度の逆数に基づく重みによってSCE損失を乗算する損失関数Inverse Token Frequency(ITF)損失を提案し,対話の多様性の向上を確認した。しかし,文の多様性では,独立したトークンの情報だけでなく,トークンの並びを取り入れた頻度も考慮する必要がある。文脈に応じて動的に変化する重みを計算するためにトークンの並びを取り入れた頻度を用いると,我々が求める多様性をよりよく表現することができる。したがって,トークンの頻度の代わりにトークンのnグラム頻度の逆数に基づいて重み付けされる損失関数,Inverse N-gram Frequency(INF)損失を提案した。INF損失に関する提案方法の有効性を確認するために,日本語と英語のTwitterデータセットで訓練されたモデルによって,自動的に生成された文の測定基準に基づく評価と人手評価を実施した。測定基準に基づく評価では,評価指数としてPerplexity,BLEU,DIST-N,ROUGE,及びlengthを用いた。人手評価では応答文の首尾一貫性と多様性を評価した。測定基準に基づく評価では,提案したINFモデルは以前の方法よりもPerplexity,DIST-N,及びROUGEにおいてより高いスコアを達成した。人手評価では,INFモデルが優れた値を示した。(翻訳著者抄録)