文献
J-GLOBAL ID:202202283737485654   整理番号:22A0483008

文脈的トピック対話生成のための階層的注意機構を持つニューラルネットワーク【JST・京大機械翻訳】

Neural Network With Hierarchical Attention Mechanism for Contextual Topic Dialogue Generation
著者 (2件):
資料名:
巻: 10  ページ: 4628-4639  発行年: 2022年 
JST資料番号: W2422A  ISSN: 2169-3536  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
符号器デコーダモデルは自然言語生成において顕著な結果を達成した。しかし,対話生成作業において,著者らは,発生における対話コンテキスト情報とトピック情報の影響をしばしば無視し,その結果,生成された回答は,文脈に近接しないか,あるいは,トピック情報の欠如が一般的応答に導く。本研究では,大きなコーパスに基づくマルチターン対話の生成を研究し,よりコヒーレントなコンテキストに敏感な応答を生成するために,対話生成のプロセスにおける会話の文脈情報とトピック情報を利用した。既存のモデルと注意機構を改善し,対話コンテキスト(HATモデル)の問題をよりよく解決するための新しい階層的モデルを提案した。この方法は,高品質な応答を作り出すための文脈的関連性に関して,モデルの能力を改善するとき,モデルをより文脈的な情報を得ることを可能にする。さらに,応答におけるトピックスの不在に対処するために,LDA(潜在Dirichlet Allocation)トピックモデルを事前訓練し,対話コンテンツのトピック語を抽出し,できるだけ対話の多くのトピック情報として保持する。著者らのモデルは,いくつかのコーパスで広範囲にテストされ,実験は,著者らのモデルが,複数の評価メトリックに関して,最も階層的で非階層的モデルより優れていることを例証した。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る